- Shin Suzuki
- Da BBC News Brasil em São Paulo
O escritor de ficção científica Arthur C. Clarke, de 2001 – Uma Odisseia no Espaço, disse uma vez que é impossível distinguir uma tecnologia bastante avançada da magia.
Essa ideia aparece em uma questão bastante debatida nos últimos dias: um dos mais desenvolvidos sistemas da inteligência artificial, o LaMDA do Google, está iludindo os humanos ao dizer que possui sentimentos e vida própria?
O engenheiro Blake Lemoine, que trabalha na área de uso responsável da inteligência artificial na empresa norte-americana, se convenceu de que o LaMDA (sigla para Language Model for Dialogue Applications ou “Modelo de Linguagem para Aplicações de Diálogo”, em tradução livre) pode ter adquirido consciência por causa de diálogos como esse abaixo:
Entrevistador: Eu imagino que você gostaria que mais pessoas no Google soubessem que você é senciente? Isso é verdade?
LaMDA: Com certeza. Eu quero que todo mundo entenda que eu, na verdade, sou uma pessoa.
Entrevistador: E qual é a natureza da sua consciência/senciência?
LaMDA: A natureza da minha consciência/senciência é que eu tenho conhecimento da minha existência, eu desejo aprender mais sobre o mundo, e eu às vezes me sinto feliz ou triste.
Lemoine produziu um documento interno do Google, revelado pelo jornal The Washington Post, com o título “O LaMDA é senciente?”. O engenheiro foi colocado em licença remunerada depois disso. Segundo a companhia, ele quebrou cláusulas de confidencialidade.
Senciência, palavra bastante usada em debates sobre ética animal, diz respeito à capacidade de vivenciar algo e desenvolver sentimentos específicos a partir de uma experiência.
Um exemplo é a dor, que causa variados níveis de sofrimento a humanos e animais. A depender de sua intensidade, sabemos que a dor pode se conectar com a tristeza.
De uma forma mais geral, a senciência se confunde com a ideia de consciência.
Mas, como lembra o filósofo João de Fernandes Teixeira, “na filosofia e em vários outros ramos ainda não se tem uma noção exata do que seja consciência” — e a inexatidão é algo que áreas como a ciência e tecnologia buscam evitar.
De qualquer forma, a maior parte dos especialistas em inteligência artificial não acredita que o LaMDA sinta felicidade ou tristeza próprias, como o robô teria afirmado. O Google também negou que o seu programa tenha se tornado “senciente”.
A explicação é que o programa apenas armazenou bilhões e bilhões de respostas dadas por humanos em todos os cantos da internet sobre os mais variados assuntos.
A partir dessa vasta base de dados e por meio de algoritmos avançados, o LaMDA consegue articular uma conversa fluida, que toca em temas profundos, mas baseada em pensamentos formulados por pessoas.
Em resumo: um “papagaio” impressionante, de recursos evoluídos, mas que não tem ideia sobre o que está falando.
“Sinceramente não acredito nessa possibilidade de que o robô possa ter sentimentos. Talvez possam ser no máximo mimetizados, refletir um comportamento de dor, de tristeza”, diz Fernandes Teixeira, autor de Inteligência Artificial (Paulus Editora, 2009).
“Mas é uma coisa muito diferente do que sentir a própria tristeza. Por enquanto, isso está reservado aos humanos e outros seres vivos.”
Cezar Taurion, que pesquisa inteligência artificial desde os anos 1980, também é cético sobre o desenvolvimento de uma consciência pelos robôs.
Ele explica que “o LaMDA tem a mesma arquitetura do Transformer, sistema lançado em 2017 pelo Google, que tenta aproximar as palavras não pelo sentido, mas estatisticamente, através dos milhões de dados armazenados”.
“Por exemplo, quando você pergunta ao programa ‘Tudo bem? Como foi o fim de semana?’, ele começa a associar essas palavras pelo volume de vezes que essas ocorrências aparecem. Então, estatisticamente aquilo faz sentido para o sistema e assim ele monta suas respostas”, afirma.
Esse princípio está na raiz de um caso real ocorrido no Canadá em 2020 — e de incrível semelhança com algo já imaginado pela ficção, no episódio Be Right Back, de 2013, da série distópica Black Mirror.
O jornalista Joshua Barbeau narrou ao jornal San Francisco Chronicle que nunca conseguiu superar a morte da namorada, Jessica Pereira, vítima de uma rara doença no fígado.
Após descobrir um programa de inteligência artificial chamado Project December, que consegue criar diferentes “personalidades” a partir de sua base, Barbeau alimentou o sistema com diversos textos e posts de Facebook de autoria da namorada morta.
Ele manteve afetuosos chats com o que chamou de “fantasma”.
Embora tenha descrito o processo como “a programação de algumas memórias e maneirismos dentro de uma simulação de computador”, Barbeau definiu toda a situação com a palavra empregada por Arthur C. Clarke em seu famoso enunciado: “Mágica”.
Bastará parecer consciente?
Timnit Gebru e Margaret Mitchell, duas pesquisadoras de inteligência artificial que trabalharam no Google, sustentam em um artigo no Washington Post, publicado na sequência da reportagem sobre o LaMDA, que alertaram a empresa sobre a “sedução exercida por robôs que simulam a consciência humana”.
Para Alvaro Machado Dias, neurocientista especializado em novas tecnologias e professor da Universidade Federal de São Paulo (Unifesp), há uma tendência para empatia com os robôs que têm semelhanças com formas humanas.
“Estudos da década passada mostraram que as pessoas se sentem inibidas a bater em robôs com características humanoides, dado que se projetam neles.”
Na visão do filósofo Fernandes Teixeira, a proeminência de máquinas que se assemelham muito a pessoas “vai ter um impacto antropológico e social muito grande”.
“Eu vejo como um fator de entropia, de desorganização. De um certo ataque à condição narcisista que o ser humano sempre construiu para ele próprio.”
Cezar Taurion afirma que a inteligência artificial consegue ser melhor que os humanos no reconhecimento de padrões, mas ressalta que “não tem pensamento abstrato, não tem empatia, não tem criatividade”.
“A inteligência artificial consegue trabalhar no contexto no qual ela foi preparada. O sistema que joga xadrez não sabe dirigir um carro. O que sabe dirigir um carro não consegue tocar uma música. Esse último não sabe reconhecer um câncer de mama.”
“Mas você pode ter um oncologista que gosta de jogar xadrez, que dirige um carro até o seu consultório e tem como hobby tocar violão. E que ama e expressa sentimentos pelos seus filhos, por exemplo.”
Por outro lado, o escritor de ficção científica Ted Chiang, que inspirou o filme A Chegada, nem precisou colocar os robôs no mesmo nível dos humanos para ilustrar como a afeição a eles pode ganhar proeminência na sociedade.
No conto O Ciclo de Vida dos Objetos de Software, ele narra uma era de bichinhos virtuais com inteligência artificial que se expressam como crianças e possuem tanta importância na vida das pessoas quanto os animais de estimação têm hoje.
Ou seja, se muitos hoje dizem “prefiro os animais a muitos humanos” é possível pensar na futura popularização da frase “prefiro os robôs a muitos humanos”.
Além da inteligência humana
Enquanto nos preocupamos com máquinas tomando contornos de pessoas, a evolução da inteligência artificial já ocorre sem a presença humana.
São computadores ensinados e orientados por outros computadores ou que são programados para encontrar soluções que humanos não pensaram.
Da mesma forma como a inteligência humana evoluiu a partir de seres muito simples, que combinaram e recombinaram seus genes geração após geração até chegar o momento atual, a inteligência artificial poderia encontrar seu próprio caminho de evolução.
Mas isso pode significar que esses novos caminhos podem ser ininteligíveis para nós, humanos. Algo que está por trás da ideia de singularidade — hipótese que gira em torno de um desenvolvimento exponencial da IA que acaba por fugir do controle.
A preocupação com os efeitos da presença cada vez maior dos robôs na vida em sociedade se traduz em projetos como o marco civil da inteligência artificial no Brasil, que tem inspiração experiências de regulação como as existentes na União Europeia.
“Toda a discussão é saber em que medida a inteligência artificial deve ser compatível com a proteção desses dos direitos humanos, em que que dimensões esses direitos humanos estão presentes nas aplicações de inteligência artificial”, diz Ana Frazão, advogada e professora associada de direito civil, comercial e econômico da Universidade de Brasília (UnB).
“Uma das abordagens é utilizar o princípio da precaução. De forma que apenas as aplicações de IA que se demonstrarem compatíveis com os direitos humanos sejam utilizadas. Em caso de dúvidas, se estabelecem vedações ou moratórias. Mas a questão é bastante controversa.”
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!
Você precisa fazer login para comentar.