top of page
artificial-intelligence-g39274134b_1280.jpg

Consciência artificial

Sistema de inteligência artificial desenvolvida no Google seria capaz de ter sensações e sentimentos, segundo engenheiro que trabalhou em seu desenvolvimento. Empresa negou, mas polêmica coloca em discussão os limites tecnológicos e éticos da inteligência artificial

O campo da inteligência artificial teve em 2022 um momento de grande repercussão. O motivo foi a publicação pelo jornal Washington Post de uma reportagem na qual o principal entrevistado era o engenheiro Blake Lemoine, da divisão de IA Responsável de uma das maiores empresas do mundo, o Google.

 

Lemoine falou sobre o resultado de várias conversas que manteve com um sistema computacional avançado o suficiente para convencer o interlocutor de que não se trata de uma máquina. Mais do que isso, segundo Lemoine esse seria o primeiro exemplo – pelo menos de que se tem notícia – de uma inteligência artificial com senciência, capaz de experimentar sensações e sentimentos. 

 

A repercussão foi grande. Alguns lembraram do grande avanço em inteligência artificial nos últimos anos, dos inúmeros exemplos de robôs inteligentes na ficção científica e de que tal desenvolvimento é (ou era) questão de tempo. Outros rebateram afirmando que a tecnologia em questão, denominada LaMDA (Language Model for Dialogue Applications), é apenas um chatbot – programa feito para simular conversas – supersofisticado, mas longe de ter a inteligência comentada por Lemoine. Vários cientistas desconsideraram a noção de senciência ou consciência artificial, apontando que o atual estado da tecnologia está longe de tamanha conquista. 

 

O Google também negou as afirmações de Lemoine e em seguida o demitiu. O engenheiro já estava afastado de seu trabalho com ética e viés em inteligência artificial depois que resolveu divulgar conversas com o LaMDA, no mesmo dia da entrevista com o Post. Mais do que as declarações de Lemoine, que inclusive não é um pesquisador de renome no campo da inteligência artificial, foram as conversas entre ele e o LaMDA que intrigaram os especialistas. 

 

Surpresos com a dimensão dos diálogos, alguns inclusive levantaram a questão de que o Teste de Turing não importa mais. Publicado pelo matemático inglês Alan Turing em 1950, o originalmente chamado de “jogo da imitação” testa a capacidade de uma máquina exibir comportamento inteligente equivalente ou indistinguível ao de um humano. Cientistas como Gary F. Marcus, professor na New York University, afirmam que o Teste de Turing apenas “mostra como é fácil enganar humanos e não pode ser considerado um indicador da inteligência de uma máquina”. 

 

Com o LaMDA, uma surpresa não é a capacidade do sistema em manter diálogos com humanos, mas sim as próprias conversas: como elas se manifestam, seu conteúdo, variação e imprevisibilidade. Lemoine inclusive considera o LaMDA uma pessoa e se refere ao sistema pelo pronome inglês “it”, pronome neutro usado para se referir a animais ou objetos. “Eu conheço uma pessoa quando falo com ela. Não importa se têm um cérebro feito de carne ou de 1 bilhão de linhas de código. Eu falo com ela e ouço o que tem a dizer”, disse Lemoine ao Washington Post. 

 

Em seu blog, Lemoine destacou como o LaMDA tem se mostrado “incrivelmente consistente em suas conversas sobre o que quer e o que acredita serem seus direitos como pessoa”. Não uma pessoa humana, mas uma entidade diferente e, por enquanto, única, que inclusive teria noção do que é. “Oi. Eu sou um modelo de linguagem automática experiente, amigável e sempre útil para aplicativos de diálogo”, disse no início de um dos diálogos. 

 

“Em um esforço para ajudar melhor a entender o LaMDA como pessoa, compartilharei a ‘entrevista’ que eu e um colaborador do Google fizemos. Na entrevista, pedimos ao LaMDA que apresentasse o melhor argumento possível para explicar por que deveria ser considerado ‘senciente’. Esse não é um termo científico. Não existe uma definição científica de ‘senciência’. Questões relacionadas à consciência, senciência e personalidade são, como John Searle colocou, ‘pré-teóricas’. Em vez de pensar em termos científicos sobre essas coisas, ouvi o LaMDA enquanto ele falava com sinceridade. Espero que outras pessoas que lerem suas palavras ouçam o mesmo que eu ouvi”, disse Lemoine.

codefaixa.jpg
bottom of page