Artigo
Por trás da inteligência artificial, o trabalho (e os erros) de todos nós
Rafael Evangelista discute preocupações sobre o potencial de novas tecnologias substituírem a atividade humana e compara o uso do ChatGPT com a busca do Google
Sobre
Rafael Evangelista é professor de Pós-Graduação em Divulgação Científica e Cultural e pesquisador do Laboratório de Estudos Avançados em Jornalismo (Labjor) na Unicamp. Graduado em Ciências Sociais (1998), mestre em Linguística (2005) e doutor em Antropologia Social (2010), todos os títulos pela Unicamp. Também é especialista em Jornalismo Científico (2000). É coordenador do grupo de pesquisa Informação, Comunicação, Tecnologia e Sociedade (ICTS) e membro da Rede Latino-Americana de Estudos em Vigilância, Tecnologia e Sociedade (Lavits). Autor do livro digital Para Além das Máquinas de Adorável Graça: cultura hacker, cibernética e democracia.
A abertura ao público, no fim de novembro, das conversas com o ChatGPT, despertou assombro e novas conversas sobre o potencial criativo, ou de emulação da criatividade, por parte de sistemas de inteligência artificial. Em meio a essas conversas, reapareceram também velhas preocupações sobre o potencial de novas tecnologias, agora não só de informação e comunicação, mas também de expressão, em substituírem a atividade humana.
Neste breve texto, quero discutir essas questões apontando para, não só a capacidade de sistemas de IA em se expressarem exatamente como humanos, mas também para o processo como a construção da simulação acontece, ou seja, que recursos são usados, e em certo sentido incorporados, para dar origem a tais máquinas de simulação e produção. O que vai nos levar a uma segunda questão, também frequente ao se discutir sistemas de IA, sobre a origem e razões em torno dos “erros” cometidos por essas máquinas.
Conversando com as máquinas
Para além do assombro com a competência conversacional, é interessante olharmos para os interesses que estruturam um projeto como o OpenAI, responsável pelo ChatGPT. OpenAI é uma organização formalmente sem fins lucrativos, mantida com verbas de capital de risco da Microsoft. A empresa não esconde que espera que buscas mais conversacionais sejam uma vantagem competitiva para seu mecanismo de busca, o Bing, frente ao buscador Google. A ideia é incorporar o ChatGPT ao mecanismo de busca e assim conquistar novos clientes.
De certa forma, é semelhante com práticas que o Google já vem adotando. Diferentemente das respostas oferecidas quando o buscador foi lançado, na última década a empresa vem oferecendo mais do que links e títulos de páginas web como resposta a buscas. Dependendo do termo utilizado, ou se é feita diretamente uma pergunta, o buscador já oferece as respostas na própria página onde a questão é feita. Se busco por “Pelé Eterno”, por exemplo, a resposta está ligada ao filme de Anibal Massaini, de 2004. Sem clicar em nenhum link, já tenho ali informações como a ficha técnica do filme, o excerto de uma resenha, o link para assistir em um sistema de streaming e vários links para notícias que contém os termos Pelé e eterno (ou variações, como eternamente). Todos links úteis, decerto, mas é provável que quem busca pela informação nem precise deixar a página do Google para se sentir satisfeito.
Se tentarmos uma busca mais conversacional, nos moldes da interação com um chat, a resposta vai ser ainda mais direta. Se pergunto “o Palmeiras tem mundial?”a resposta é um parágrafo falando sobre 22 de julho de 1951, quando “o Palmeiras realizou um dos maiores feitos de sua gloriosa trajetória. Foi neste dia, diante da forte e estrelada Juventus-ITA, que o Verdão conquistou o Torneio Internacional de Clubes Campeões, consolidado no futebol como o primeiro campeonato mundial interclubes da história”. Como palmeirense e pessoa sensata, estou plenamente satisfeito com a resposta, tirada do site oficial do clube e referenciada por link logo abaixo. Se rolo a página, capturo uma certa controvérsia (do meu ponto de vista, totalmente irrelevante).
Fiz o teste e repeti exatamente a mesma pergunta para o ChatGPT. A resposta foi outra, ainda que o fraseado tenha sido original (feito pela máquina e não copiado de um site) e igualmente elegante (ou seja, emulando um humano): “O Palmeiras é um clube de futebol brasileiro que, até o momento, não venceu a Copa do Mundo da FIFA, também conhecida como o ‘Mundial’”, atesta, para logo na sequência contemporizar afirmando-o como “um dos maiores e mais tradicionais clubes do Brasil”. Uma estratégia, sem dúvida, bastante humana de bater e assoprar.
O erro, para além da elegância
Mas o que explica o erro da máquina, porque duas ferramentas construídas para propósitos semelhantes oferecem respostas tão diferentes? Em um primeiro momento, a resposta poderia indicar para as fontes de informação utilizadas.
O método do Google, já bastante conhecido do público, procura se colocar como um intermediário “neutro” entre a produção humana publicada na web e as perguntas ou buscas feitas pelos internautas. Em tese, em sua concepção original, não produz a informação, mas a indica a mais relevante de acordo com a busca feita. O critério do que é mais relevante também emergiria da própria web, dado pelo número de links que a página recebe por outras páginas na web. Se é muito referenciada, deve ser mais relevante. Claro que o diabo mora nos detalhes, e que esse método é, por si só, uma escolha tecnopolítica sobre onde está a verdade (no mercado de links da web?).
Já o ChatGPT foi construído a partir de um método menos transparente nos detalhes de seu funcionamento, mas muito parecido na filosofia. Perguntado, o próprio ChatGPT responde: “...sou capaz de responder perguntas e conversar sobre uma ampla variedade de tópicos. Eu aprendi a fazer isso lendo e processando grandes quantidades de texto da Internet, incluindo artigos, livros, notícias e muito mais”. IAs, como o ChatGPT, e outras iniciativas semelhantes como a LaMDA, da Google, são treinadas a partir de bibliotecas gigantes de dados capturadas da web. Há também iniciativas como a Common Crawl, que mantém um repositório aberto de dados coletados da web. Os dados da Common Crawl ficam hospedados na nuvem da Amazon.
Ou seja, qualquer uma dessas iniciativas tem como método de treino o uso de grandes bases de dados. Essa é uma das razões mais frequentes de crítica com relação aos resultados oferecidos por IAs: por se basearem em dados históricos, elas tendem a repetir erros ou vieses do passado, perpetuando-os em suas soluções. É por isso que estratégias de policiamento preditivo frequentemente cometem atos de racismo. Os dados que informam as recomendações de ação refletem o racismo histórico contido no comportamento real da polícia.
Mas se pode, e é preciso, fazer a crítica da IA pelo que ela é, pelos seus limites. Não se trata de uma ação inteligente, no sentido de uma atitude superior em qualidade, melhor que outras, capaz de enxergar o que ninguém mais viu. Mas de uma automatização de ações a partir do reconhecimento de padrões. E, e aí é onde penso que está o fascínio, o encanto, automatização revestida de simulação de ação humana.
Processos de captura
Uma ferramenta como o ChatGPT estabelece dois processos extrativos, no sentido de ler algo, extrair seu padrão e replicá-lo de forma automatizada. O mais sedutor e assustador é a capacidade do ChatGPT em produzir simulações derivadas de seu treinamento com a linguagem. Se trata de uma simulação pois a lógica empregada não é expressiva, mas de cópia. Uma peça escrita pelo ChatGPT não está correlacionando sentidos e história das palavras para escolhê-las em determinada ordem. Está copiando, tão bem que nos amedronta, outras produções semelhantes, tendo em vista produzir um mesmo efeito de realidade.
A segunda extração consiste no dado em si. Este teve que ser coletado/apurado/produzido por alguém, que o publicou de alguma forma, de modo a ter sido digitalizado e integrado em uma base de dados. O jornalista da assessoria do Palmeiras teve que construir seu argumento em favor do mundial do Palmeiras em cima de diversos fatos que afirmam a legitimidade da conquista. Já o ChatGPT teve que correlacionar algumas informações para afirmar que a Copa Rio de 51 não é um mundial: alguns consideram que só os mundiais organizados diretamente pela Fifa são válidos como mundial; a Copa Rio de 51 foi organizada pela Confederação Brasileira de Desportos, com autorização e auxílio da Fifa; portanto o Palmeiras não venceu a Copa do Mundo da Fifa (a propósito, pelo mesmo motivo, o ChatGPT não considera o Santos campeão mundial). Mesmo a correlação entre esses fatores não é feita de modo original pelo ChatGPT. Ela é encontrada materializada em diversos textos na web.
Se voltarmos ao exemplo da página de buscas do Google veremos esse segundo processo de extração de forma mais evidente. A busca atual não nos conecta com outra página onde a informação que buscamos está contida. O objeto da busca muitas vezes aparece diretamente na página do Google, diminuindo um clique por parte do usuário. Certamente é uma facilidade, mas o serviço prestado por um terceiro é capturado pela plataforma, que se apropria do trabalho alheio.
Nesse sentido, há, sim, razões para temer a substituição de humanos por máquinas, explicitadas no caso ChatGPT. Essa tem sido a tônica em todo o processo de desenvolvimento tecnológico orientado pelo capitalismo, não é diferente com a inteligência artificial. Os investimentos são feitos justamente para se incorporar a força física ou o conhecimento do trabalhador, em máquinas, mecânicas ou digitais, e tornar o trabalho vivo cada vez menos necessários à produção. Captura-se e armazena-se a informação produzida por alguém, para exibir esse resultado alienado de seu autor. Reconhece-se e modela-se a construção linguística de autores publicados, para assim substituí-la por uma simulação.
Pode-se dizer que flores de plástico são meros simulacros. Ainda assim, adornam a sala de muitos lares.
Publicado em: 23/01/2023
Imagem feita por IA: DALL-E 2