top of page
ai_abre4_edited.jpg

Chatbots e o ano da inteligência artificial

Entrevista

Dora Kaufman

Professora da PUC-SP fala sobre os impactos sociais e éticos da inteligência artificial, a falta de transparência dos sistemas, tentativas de regulamentação e a importância de se discutir abertamente o desenvolvimento na área

kaufman.jpg
Sobre

Professora do Programa de Tecnologias da Inteligência e Design Digital da Faculdade de Ciências e Tecnologia (TIDD) da PUC-SP e pesquisadora no C4AI. Pós-doutora no programa de Engenharia de Produção da Coppe-UFRJ, pós-doutora no Programa de Tecnologias de Inteligência e Design Digital da PUC-SP e doutora em Ciências da Comunicação pela USP com período na Université Paris - Sorbonne IV. Pesquisadora visitante no Courant Institute of Mathematical Sciences da New York University e no Alexander von Humboldt Institute for Internet and Society, na Alemanha. É autora de vários livros, entre eles A inteligência artificial irá suplantar a inteligência humana? e Desmistificando a Inteligência Artificial, e colunista da Época Negócios.

FCW – Por que a inteligência artificial está tão em evidência?

Dora Kaufman – A inteligência artificial não é nova, como campo de conhecimento foi estabelecido em 1956, mas hoje há um hype em torno dela, principalmente pelos resultados positivos de uma técnica específica denominada "redes neurais de aprendizagem profunda", ou em inglês deep learning. Essa técnica, que viabiliza o caminho do aprendizado de máquina, foi pensada na década de 1980 com base em outras descobertas, mas concretizada somente a partir de 2012 em função de sistemas computacionais mais robustos, particularmente as GPUs, e da geração de grandes volumes de dados (big data). O deep learning é um modelo estatístico de probabilidade que possibilita extrair informações úteis do big data, identificar padrões e fazer previsões em distintas tarefas e distintos setores de atividade. O uso da inteligência artificial em larga escala é bem recente, cerca de cinco ou seis anos, logo estamos em seus primórdios, com muitos desafios a equacionar pela sociedade tanto do ponto de vista técnico quanto ético e social. Algumas arquiteturas ou aplicações têm surpreendido por promover inéditas interfaces homem-máquina como, por exemplo, os sistemas de linguagem natural.

 

FCW – Alguns especialistas dizem que esses sistemas, como o ChatGPT, poderão mudar a relação do ser humano com a tecnologia. O que você acha disso?

Dora Kaufman – Essas reações entusiasmadas são até compreensíveis, pois o desempenho do ChatGPT tem sido surpreendente. É capaz de interagir com humanos e responde a comandos em linguagem natural sobre uma infinidade de temas, alguns deles com certo grau de sofisticação. O sistema, contudo, tem muitas limitações, como o potencial de gerar respostas incorretas, por vezes sem sentido. Creio que a relação do ser humano com a tecnologia está em contínua mudança, com impactos mais significativos quando as inovações envolvem tecnologias disruptivas. O conjunto de técnicas, arquiteturas e soluções de inteligência artificial tem sido protagonista de interfaces homem-máquina inéditas e, ao que tudo indica, nos próximos anos vamos vivenciar avanços inimagináveis. Um dos desafios de lidar com a inteligência artificial é que, em geral, as implementações geram simultaneamente externalidades positivas e negativas. No caso do ChatGPT, algumas delas já estão sendo discutidas, como, por exemplo, o uso por estudantes na execução de trabalhos de redação.

 

FCW – Os aspectos positivos são aparentes, mas como podemos avaliar os impactos negativos desses novos sistemas inteligentes? 

Dora Kaufman – É compreensível que o pessoal de tecnologia destaque mais as vantagens e benefícios, enquanto os cientistas sociais se preocupam mais com os danos potenciais. Nosso empenho é aproximar as ciências exatas das ciências humanas, pré-condição para lidar com uma tecnologia multidisciplinar como a inteligência artificial. Existe uma forte polêmica em torno do caráter neutro ou não da tecnologia. Parte interpreta que ela é neutra por depender da maneira como os humanos a desenvolvem, aplicam e interpretam; outros contestam a ideia de neutralidade ponderando que existem variáveis que não são controladas pelos humanos, ou pela natureza e design da tecnologia ou porque o controle pertence a outro humano. Stephanie Hare, no recente livro Technology is not Neutral: A short guide to technology ethics, discute especificamente a questão da neutralidade ou não das tecnologias. De qualquer forma, independentemente da questão da neutralidade, a técnica que permeia a maior parte das implementações atuais de inteligência artificial tem diversos problemas.

 

FCW – Quais são esses problemas? 

Dora Kaufman – Do ponto de vista ético, os principais problemas são a ameaça à privacidade, o viés e a falta de transparência – opacidade ou não-explicabilidade. A questão da privacidade é relevante no caso dos sistemas que usam dados pessoais. Em parte protegidos pelas leis de proteção de dados – no Brasil, a Lei Geral de Proteção de Dados Pessoais –, a questão se agrava quando o domínio de aplicação envolve dados sensíveis, como em saúde, segurança ou educação. No caso de sistemas de inteligência artificial empregados para otimizar processos de produção, por exemplo, a questão da privacidade é atenuada, claro que resguardados os segredos comerciais. Mesmo sem uma regulamentação específica, temos legislações que devem ser observadas, a mais diretamente relacionada é o artigo 20 da LGPD que prevê o “direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”.     

 

FCW – O problema dos vieses tem sido muito discutido com relação a como foram estabelecidas as bases de dados usados em sistemas de inteligência artificial. 

Dora Kaufman – Em geral, atribui-se o viés – de gênero, de etnia, de raça, de cognição, entre outros – integralmente às bases de dados tendenciosas, contudo o viés pode emergir antes da coleta de dados, em função das decisões tomadas pelos desenvolvedores do sistema, desde a escolha dos hiperparâmetros ou variáveis iniciais até a visualização e interpretação dos resultados. No caso de viés associado aos dados, existem duas principais origens: os dados coletados não representam a composição proporcional do universo objeto em questão – como a composição racial de determinada população – ou os dados refletem os preconceitos existentes na sociedade, por vezes, amplificando ou perpetuando esses preconceitos. O viés pode decorrer igualmente de erros na rotulagem da base de dados que antecede o tipo de aprendizado – denominado "aprendizado supervisionado" – utilizado no reconhecimento de imagem e voz. A constatação tardia do viés em um sistema dificulta identificar retroativamente sua origem e, mais ainda, corrigi-lo. Quatro bases de dados usadas intensamente para treinar sistemas de inteligência artificial na última década, ao serem auditadas após vários anos de uso, mostraram-se enviesadas. Para se ter uma ideia, uma das bases usadas em sistemas de reconhecimento facial, formada por imagens captadas na internet à época do presidente George W. Bush, tinha mais imagens de Bush do que de mulher afrodescendente. Veja que não estamos falando de imagens de homens brancos, mas de um único homem branco. A visibilidade do tema do viés em sistemas de inteligência artificial é relativamente recente, mas a sociedade está cada vez mais sensível aos seus efeitos danosos. 

 

FCW – E quanto ao problema da falta de transparência?

Dora Kaufman – A falta de transparência nas decisões automatizadas remete à complexidade dos sistemas de inteligência artificial, que esbarra na assimetria de conhecimento entre usuário-gestor e desenvolvedores da tecnologia e na própria natureza da técnica de redes neurais profundas. Muitos esforços têm sido feitos para encontrar soluções para a opacidade do sistema, com base em parte no conceito de inteligência artificial explicável, para melhorar o entendimento dos resultados gerados pela técnica de aprendizado de máquina. Pelo que eu sei, ainda não temos uma técnica ou metodologia para resolver o problema da opacidade e as pesquisas estão fundamentalmente em laboratórios.

 

FCW – Outro ponto que toca na questão da falta de transparência é o da concentração do desenvolvimento da inteligência artificial. São poucos países e empresas que estão na linha de frente da tecnologia. 

Dora Kaufman – O futuro da inteligência artificial está nas mãos de poucas empresas de tecnologia – no caso do Ocidente, de poucas empresas de tecnologia americanas. A China e os Estados Unidos lideram a pesquisa, desenvolvimento e implementação no setor, gerando uma desigualdade preocupante, presente e futura. No Brasil, temos um cenário particular: por um lado, estamos relativamente atrasados no desenvolvimento da tecnologia em si, em função da ausência de política pública eficiente, de recursos para pesquisa, entre outros fatores; por outro, a comunicação e a sociabilidade do brasileiro está mediada pelos algoritmos de inteligência artificial. O Google apresentou no Congresso de Inteligência Artificial que organizamos em novembro na PUC-SP, um levantamento em que identificaram 701 startups de inteligência artificial no Brasil, o que é uma boa notícia.

 

FCW – Futuristas e obras de ficção científica costumam pintar cenários desoladores para o futuro da inteligência artificial. Por que é mais difícil ter uma visão positiva do que virá pela frente?

Dora Kaufman – Em parte porque temos medo do que não conhecemos, isso é da natureza do ser humano. Depois, acho que os filmes de ficção científica influenciam negativamente e acabam entrando em nosso imaginário de forma distorcida, fantasiosa. Existe ainda um desconhecimento sobre a inteligência artificial, vejo pessoas preparadas intelectualmente e que se surpreendem ao saber que os aplicativos que usam diariamente são baseados nessa tecnologia. Além dos filmes de ficção, que prestam um desserviço ao criar um imaginário distópico, parte do ecossistema de inteligência artificial também contribui negativamente ao estimular o hype. O filósofo Nick Bostrom, por exemplo, autor de Superinteligência, livro de referência sobre a inteligência de máquina – inicialmente no nível do humano e, posteriormente, superior à inteligência humana (a superinteligência) –, dedica-se bastante aos alertas sobre esse futuro distópico. Os obstáculos de toda ordem são imensos, estamos longe de compreender em sua plenitude o funcionamento do cérebro biológico. O hype está presente igualmente no debate do metaverso, que ainda não existe – a tecnologia atual não é capaz de viabilizar a ideia original – e de outras tecnologias emergentes.

 

FCW – Essa visão distópica pode atrapalhar o desenvolvimento da tecnologia? 

Dora Kaufman – Minha preocupação é que debater esse universo fantasioso ocupa um espaço que seria mais bem aproveitado para enfrentar os problemas reais, que não são poucos, à medida em que a inteligência artificial se dissemina na economia e na sociedade. Como mencionei, a assimetria de conhecimento entre os usuários, legisladores, reguladores e os especialistas de tecnologia é um obstáculo concreto para avançar em diretrizes e regulações que maximizem os benefícios e mitiguem os potenciais danos.

 

FCW – O que você acha das iniciativas de regulamentar o uso da inteligência artificial?

Dora Kaufman – A primeira pergunta a ser respondida é por que precisamos regulamentar a inteligência artificial atribuindo a ela tratamento distinto do conjunto de tecnologias digitais. A resposta, no meu ponto de vista, está na natureza de propósito geral da inteligência artificial, que está reconfigurando a vida em sociedade. Estamos migrando de um mundo de máquinas programadas para um mundo de máquinas probabilísticas. Expandindo a automação programada com a automação "inteligente", gradativamente a inteligência artificial está permeando os processos decisórios pela capacidade de gerar previsões mais assertivas. O desafio da sociedade, particularmente do poder público (legisladores, reguladores) é garantir que a sociedade como um todo usufrua de seus benefícios evitando os potenciais danos. Uma das dificuldades de regulamentar a inteligência artificial está na própria definição ou conceituação da tecnologia. Sendo uma tecnologia transversal, os efeitos dependem do domínio de aplicação. Por exemplo, o grau de dano do uso da inteligência artificial no streaming da Netflix ou do Spotify é irrelevante, não carece de ser contemplado em um arcabouço regulatório, no máximo você não gosta de um filme ou série e passa para outro. No entanto, no caso de domínios sensíveis como segurança, educação ou saúde, os potenciais danos são relevantes e requerem regulamentação. 

 

FCW – Qual é a sua opinião sobre o Marco Regulatório da Inteligência Artificial no Brasil?

Dora Kaufman – No último 6 de dezembro, a Comissão de Juristas do Senado entregou o relatório final contendo contribuições para o substitutivo que pretende estabelecer o marco regulatório da inteligência artificial no Brasil. É um relatório bastante extenso e robusto, infinitamente superior ao PL 21/2020, que é uma regulamentação inócua, que não protege o usuário afetado nem a própria sociedade. A expectativa é que o relatório seja debatido no Senado ao longo de 2023. Para se ter uma referência, a Comissão Europeia está discutindo sua proposta de regulamentação da inteligência artificial desde abril de 2021, já tendo mais de 3 mil emendas. É fundamental trazer para o debate as agências setoriais, a academia – particularmente os recém-criados centros de pesquisa em inteligência artificial como o C4AI –, as empresas de tecnologia, as startups, os grandes centros de saúde, a Justiça, o setor privado e o novo governo. 

Entrevista e edição: Heitor Shimizu
Publicado em: 23/01/2023

Entrevista concedida em: 16/12/2022

Foto: Ilana Bessler

Revista FCW Cultura Científica v. 1 n 1 janeiro - março 2023

bottom of page