top of page
ai_abre4_edited.jpg

Chatbots e o ano da inteligência artificial

Entrevista

Hugo Neri

Pesquisador do C4AI e fundador de duas startups fala sobre a relação do ser humano com a tecnologia, os limites dos sistemas atuais como o ChatGPT e os riscos da inteligência artificial 

Sobre

Pesquisador do Center for Artificial Intelligence (C4AI), professor visitante no Departamento de Sociologia da Innsbruck Universität (Áustria) e membro do conselho editorial do The American Sociologist Journal. Foi pesquisador visitante de pós-doutorado na University of Cambridge. É doutor em Filosofia, mestre em Sociologia e bacharel em Ciências Sociais, todos pela Universidade de São Paulo. Autor do livro The Risk Perception of Artificial Intelligence (Lexington, 2020), foi um dos organizadores de Inteligência artificial: avanços e tendências (IEA-USP, 2021). É fundador e cientista-chefe da Epistemics (soluções orientadas pela inteligência de dados) e está prestes a lançar sua segunda startup, Venn, que empregará inteligência artificial para manipulação e visualização de dados.

FCW – Sistemas de inteligência artificial com o uso de linguagem natural – como ChatGPT, LaMDA e outros que virão em seguida – mudarão a forma como usamos a internet ou até mesmo como nos relacionamos com a tecnologia? 

Hugo Neri – Na inteligência artificial, a área de processamento de linguagem natural foi, depois de visão computacional, a que teve o maior progresso nos últimos anos, muito por conta dos modelos pré-treinados e especificamente da arquitetura de transformers. Um grande debate na inteligência artificial é conseguir colocar o senso comum em um programa, algo muito difícil porque não sabemos como formalizar, justamente por ser comum. Mas de alguma maneira os novos modelos, com números gigantescos de parâmetros, conseguem capturar uma parte disso. A arquitetura dos transformers pode levar a algo parecido com o que fazemos quando conversamos, por exemplo. Eu tenho uma formação também em filosofia e epistemologia e acho que essa direção no desenvolvimento do processamento de linguagem natural faz sentido. Não é como antes, quando se faziam, por exemplo, cálculos com vetores. Estamos vendo algo mais parecido com o que o ser humano faz com a linguagem, mas, apesar do avanço, acho um exagero dizer que esses sistemas vão revolucionar a forma como interagimos com a tecnologia. Assistentes pessoais sencientes, com comportamento verbal muito próximo ao do ser humano, não vão chegar tão cedo. Antes eu acreditava que teríamos uma grande revolução com os chatbots, vendo como os transformers foram avançando, como os problemas foram resolvidos, mas hoje tenho ressalvas em relação a isso. 

 

FCW – Ressalvas por causa dos limites da tecnologia atual? 

Hugo Neri – Não apenas pela tecnologia. Acho que existe uma grande dificuldade de escala em fazer modelos pré-treinados que sejam consistentemente renovados. Para treinar o GPT, ou outro grande chatbot, é preciso fazer vários pré-treinos, o que demora muitos meses e custa muito caro. Por mais que tenhamos muitos dados, temos limitações que são da natureza da linguagem humana. Por exemplo, a linguagem muda ao longo dos anos, os vocabulários mudam, os termos mudam, pragmaticamente a linguagem muda muito e acho que localmente a linguagem muda ainda mais. Outro exemplo são os jargões. Temos o jargão médico, o do engenheiro, de uma cultura específica de pessoas e isso o modelo genérico de processamento de linguagem natural não consegue captar. É muito difícil fazer um bom corpus linguístico, ter progresso em modelos de gerar dados. Existe uma limitação inerente pois a natureza das coisas é extremamente complexa. Nos transformers, o modelo pré-treinado é lento no final, não consegue se adaptar rapidamente, fica congelado, então sempre há algum tipo de limitação, como no caso do ChatGPT, que é a bola da vez. 

 

FCW – Poderia explicar quais são essas limitações? 

Hugo Neri – Nos chatbots, mesmo os mais sofisticados, rapidamente vemos quebras na fluência do diálogo, especialmente quando passamos para algo mais específico. Por mais que consigam adotar uma estratégia do tipo refrasear para algo mais genérico e dar aquela engambelada na hora de responder, tem quebra. Por exemplo, uma coisa que os chatbots de modo geral não conseguem fazer é estabelecer termos comuns, algo que costumamos fazer quando conversamos. Se fizéssemos cinco entrevistas, eu começaria a usar alguns termos de jargão e você outros e saberíamos o que estamos querendo dizer com tudo isso. A gente acaba criando vocabulários locais. O chatbot não consegue e isso é algo que impacta negativamente na fluência da comunicação. 

 

FCW – Os chatbots não podem aprender e se adaptar a partir dos termos usados pelo interlocutor? 

Hugo Neri – Grande parte do começo em uma nova conversa é entender os termos do outro e depois navegamos nisso. Os chatbots ainda não fazem isso eficientemente, muito embora tenha havido bastante avanço nesse sentido. Os chatbots mais avançados podem fazer ajustes finos por templates ou usar protocolos para direcionar um pouco mais os termos. Um exemplo disso ficou bastante famoso no caso do engenheiro do Google que achou que o LaMDA era sentiente. Isso pode ocorrer, mas não espontaneamente, não é algo treinável, o modelo não tem esse objetivo. Quanto ao uso da internet, acho que essas tecnologias aplicadas de assistentes genéricos, tipo Alexa ou Siri, ainda não vão conseguir fazer a passagem de uma ferramenta de busca para um sistema pessoal totalmente confiável e confortável para o usuário. Essa história de assistente global, que consegue ser basicamente um sistema operacional em linguagem natural, isso é um sonho desde o começo da inteligência artificial. Mas é muito curioso, por que um dos fatores que levaram ao segundo inverno da inteligência artificial foi a ascensão das interfaces gráficas. O grande esforço era desenvolver programas para se ter um desempenho mais humano com o computador e de alguma maneira isso foi feito de maneira completamente diferente, por meio do design e da interação gráfica. 

 

FCW – Ainda que os chatbots não substituam as ferramentas de busca na internet, não serão usados como recursos para acessar fontes de informações?
Hugo Neri – Acho que sim. Por exemplo, eu sou usuário Apple e não uso o Siri, mas uso o Spotlight, a busca generalizada do MacBook. Você coloca um tema e uma das buscas é por exemplo, na Wikipédia. Mas quando falamos não em sistemas de busca mas em bancos de conhecimento, é importante ressaltar que precisam ser confiáveis, com boa curadoria das informações. Acho que isso já vem sendo feito e vai se tornar mais bem difundido, mas outra questão está no uso. O Siri ou a Alexa, se bem desenvolvidos, poderiam fazer essa passagem, mas o apoio para isso parece estar diminuindo. A Amazon, por exemplo, está fechando divisões de Alexa. 

 

FCW – Por outro lado, a Microsoft investiu recentemente US$ 1 bilhão na OpenAI, que faz o ChatGPT. 

Hugo Neri – Sim, acho que isso demonstra o potencial da OpenAI e provavelmente eles vão se consolidar como uma plataforma de treinamento de modelos mais flexíveis de linguagem natural. 

 

FCW – Poderia falar um pouco mais sobre a questão da confiabilidade das fontes de informação nos chatbots? 

Hugo Neri – Acho que essa é uma grande pedra no sapato em toda a área de inteligência artificial explicável. É um assunto delicado, uma vez que os modelos de linguagem não são transparentes, são caixas pretas e não se sabe o que tem dentro. Um problema é a veracidade das informações, do próprio banco de dados. Outro é por que o chatbot devolveu determinada resposta, que é uma questão de causalidade. Do lado dos dados, há necessidade de auditoria e fazer isso, na escala de dados envolvida, é muito difícil. Nos bancos de dados públicos ou naqueles com muitas pessoas interagindo, você tem uma hipótese de trabalho que é a sabedoria coletiva, das multidões. É o caso da Wikipédia, de pessoas que vão ao longo dos anos editando, adicionando, revisando, tornando-se a fonte dos dados que vão compor esse corpo de conhecimento. A dimensão dos dados é um trabalho braçal, difícil de ser feito, e a veracidade depende de auditoria em última instância. É muito difícil fazer um programa para atestar a veracidade de uma informação, por que uma vez que se tem ambiguidade, quem é que resolve? Quais são os recursos? No fim, acabamos entrando em uma instância julgadora e, para o julgamento, é preciso ser humano. Com relação à causalidade, tivemos há alguns anos uma tentativa de fazer essa inteligência artificial explicável usando alguns métodos de tentar reduzir a dimensionalidade, para ver o que causa o que, mas os resultados foram pouco frutíferos, acho que a área andou pouco nisso. Conseguimos detectar se algo é um texto gerado ou se é uma imagem, se é deep fake, mas isso é um problema de classificação e conseguimos classificar. Agora, causalidade, por que o sistema levou a tal coisa, é muito mais difícil. É um problema que vai continuar por muito tempo. Entra a dimensão não apenas ética mas do quanto queremos delegar, de exposição a uma relação de confiança com o sistema, do quanto toleramos e do quanto estamos confortáveis com tudo isso. Acaba se tornando, em última instância, uma questão comportamental e social. 

 

FCW – Como mitigar esses e outros riscos da inteligência artificial? 

Hugo Neri – Comecei a pesquisar sobre percepção de risco em um momento em que o próprio termo inteligência artificial estava novamente ganhando força, por volta de 2014, com a popularização do aprendizado de máquina e de big data. Mas a inteligência artificial cresce com o risco desproporcionalmente percebido pelas pessoas. Em 2016, achava-se que o desenvolvimento seria muito veloz. De fato foi, para quem faz parte da área, com o desenvolvimento enorme do processamento de linguagem natural ou de imagens, ou de reunir os dois em um modelo generativo de texto e imagens, que era algo impensável anteriormente. Mas para o público leigo, acho que não foi o que se esperava. Entre os riscos, falava-se que as aplicações de inteligência artificial acabariam com o trabalho das pessoas, que tomariam decisões de modo autônomo, mas isso não ocorreu. Então, o risco é desproporcional e sua percepção foi fortemente atenuada, uma vez que a expectativa de entrega da tecnologia era maior. O risco da privacidade dos dados, por exemplo, diminuiu bastante. Outro risco era o das armas autônomas. Especulava-se que a próxima guerra seria muito severa, mais eis que estourou uma, Rússia e Ucrânia, e se usa muitos drones, tem um mínimo de sistemas autônomos, mas o uso da inteligência artificial é muito menor do que se imaginava. Também não tivemos um grande evento, um incidente. Tivemos no máximo alguns acidentes com robôs industriais e carros autônomos que bateram. Só. Não tivemos evento de inteligência artificial autônoma causando danos. Algumas pessoas ficaram com medo do uso da inteligência artificial como arma, mas essa ansiedade não se concretizou. 

 

FCW – Não seria por que a evolução da tecnologia é gradual e por que as pessoas se adaptam rapidamente, por que a novidade se banaliza com grande velocidade? 

Hugo Neri – Certamente, e essa adaptação é muito interessante. Na Sociologia, tem uma teoria do Max Weber sobre mudanças e racionalização da sociedade. Um grande fator de mudança é o que chamamos de carisma, algo totalmente inesperado. Temos novidades e as mudanças vão no sentido de ter sempre algo novo, que captura, que é irracional mas que aos poucos vai se tornando rotina, vai se burocratizando. É um pouco o que acontece na inteligência artificial. O progresso ocorre aos poucos.

Entrevista e edição: Heitor Shimizu

Publicado em: 23/01/2023
Entrevista concedida em: 12/12/2022
Imagem feita por IA / DALL-E 2

Revista FCW Cultura Científica v. 1 n 1 janeiro - março 2023

bottom of page