
Entrevista
Marcelo Soares
Professor de jornalismo explica como as redes sociais coletam e processam dados dos usuários em diversas camadas, sem transparência e escondendo critérios e algoritmos, dificultando a fiscalização e favorecendo a disseminação de desinformação. A lógica de engajamento prioriza o conteúdo emocional e polêmico, criando bolhas personalizadas que isolam os usuários e podem levá-los ao extremismo

Sobre
É jornalista, professor e dirige o estúdio de inteligência de dados Lagom Data, em São Paulo. Graduado em Comunicação Social/Jornalismo pela UFRGS e mestre em Divulgação Científica e Cultural pelo Labjor-Unicamp. Coordenou o Grupo de Inteligência Artificial (2019-2021) do Instituto de Estudos Avançados (Idea) da Unicamp. Lecionou nas pós-graduações em jornalismo digital na ESPM (SP), PUC-RS (RS), Positivo (PR), Unimep (Piracicaba/SP) e na Unochapecó (SC) e ministrou oficinas na UFSC (SC), USP (SP) e Ufop (MG).
Tem foco em jornalismo de dados, direito de acesso a informações públicas e indicadores de audiência de websites. Um dos pioneiros em jornalismo de dados no Brasil, foi o primeiro editor de Audiência e Dados da Folha de S.Paulo. É membro do Consórcio Internacional de Jornalistas Investigativos (ICIJ), onde colaborou nos projetos premiados "Tobacco Underground" e "The Global Climate Change Lobby". Em 2006, na Transparência Brasil, editou o projeto Excelências, um banco de dados de perfis de parlamentares, feito a partir da raspagem de dados públicos, que recebeu o prêmio Esso de Melhor Contribuição à Imprensa.
Na Folha, participou de projeto para avaliar a eficiência de municípios e ganhou o prêmio Petrobras em 2018. Na revista Época, utilizou dados públicos para investigar a demografia das vítimas da Covid-19 no Brasil e ganhou o prêmio Synapsis em 2020. Traduziu para o português o livro "Como escrever para a Web" (2018), escrito pelo jornalista colombiano Guillermo Franco, em uma iniciativa do Centro Knight para o Jornalismo nas Américas, da Universidade do Texas em Austin.
FCW Cultura Científica – No Brasil, oito em cada dez usuários de internet utilizam as redes sociais com frequência, de acordo com dados de 2024 do Núcleo de Informação e Coordenação do Ponto Br (NIC.Br). Enquanto estamos navegando, que tipos de dados as redes sociais coletam dos usuários?
Marcelo Soares – As redes sociais coletam muito mais do que aquilo que fornecemos conscientemente. E esses dados são coletados em várias camadas. A camada "zerésima" é formada pelas informações básicas que preenchemos – nome, idade, interesses, nossa rede de contatos, nossas curtidas e compartilhamentos. Tudo isso elas guardam. Além desses, tem um universo de dados comportamentais sendo monitorado. Eles observam em agregado o que curtimos, comentamos, assistimos, o tempo que passamos em um post ou vídeo. Esses padrões são comparados estatisticamente aos de outros usuários e, a partir disso, vão inferindo com quem são parecidos nossos gostos, desejos e até aspectos da nossa personalidade.
O consultor de mídia dinamarquês Thomas Baekdal chama isso de dados de primeira ordem. São dados que as plataformas criam refinando aquilo que extraem da nossa atividade. Um exemplo pessoal: quando fui olhar a seção de privacidade e anúncios no Facebook, encontrei uma lista imensa de temas que, segundo a plataforma, me interessam. Tinha alguns que realmente me interessam, como rock e jazz. Tinha astrofotografia, provavelmente porque eu curto as postagens de um amigo nosso que trabalha no Observatório Nacional. E aí aparecia também roupas de cowboy e turismo na Coreia do Sul, que não me interessam, mas em algum momento posso ter interagido com algo relacionado. Também, a partir de vários sinais que incluem a geolocalização transmitida pelo celular, inferem o momento de vida da pessoa – mora longe da família, mudou de endereço, está fora do país há mais de um mês. Eu e minha mulher moramos no ano passado na Alemanha. Nas primeiras semanas, recebíamos muitos anúncios de aulas de alemão. Depois que passou do tempo que poderia ser inferido como turismo, um anúncio comum que eu recebia era de consultoria tributária a brasileiros que emigraram. Esses dados são organizados em perfis vendidos para anunciantes de forma automatizada, em leilões que ocorrem em microssegundos. Eles não precisam acertar 100%; se errarem, o pior que acontece é ignorarmos algum anúncio. A segunda camada, portanto, está na relação comercial das plataformas com anunciantes a partir dos nossos dados.
FCW Cultura Científica – Como ocorrem esses “leilões” quase que instantâneos para publicidade na internet?
Marcelo Soares – A maioria dos anúncios são vendidos em tempo real, num processo automatizado em que empresas disputam sua atenção em microssegundos. Isso porque os nossos dados alimentam a principal fonte de receita das plataformas: a publicidade direcionada. A partir de tudo que sabem sobre a gente – o que fornecemos e o que inferem –, elas constroem perfis superdetalhados. Eles não precisam saber que essa pessoa é o Marcelo ou a Ana Paula, mas sabem que, se acertarem no seu gosto e no seu momento, você pode assistir a um vídeo, clicar num anúncio ou comprar alguma coisa. Eles compram acesso a grupos com determinadas características, por exemplo, "mulheres entre 30 e 40 anos, em São Paulo, que têm filhos pequenos, se interessam por yoga e seguem perfis de alimentação saudável". Um pouco de demografia, um pouco de psicografia. E além destas tem uma terceira camada, a dos cookies de terceiros, ainda mais invasivos. É assim que os anúncios te seguem de um site para outro.
FCW Cultura Científica – O que são cookies de terceiros e como eles atuam fora das redes sociais?
Marcelo Soares – Cookies são pequenos arquivos que outros sites despejam no seu navegador quando você visita uma página, para poder identificá-lo na próxima visita. Podem ser do próprio site que acessou, e aí tratam da sua própria relação com ele: ao retornar a um site de noticias, os links que você já clicou aparecem roxos em vez de azuis. Mas existe um negócio lucrativo de cookies de terceiros, que os sites despejam no seu computador por fazerem parte de redes de anúncios, por exemplo. Essas empresas não têm relação com você, mas com os sites que você acessa. Por isso é que a lei exige que o site peça sua autorização, naqueles pop-ups. Se a mesma empresa do cookie monitora um site de notícias e um site de alimentação, por exemplo, ela quem visita os dois ou não. Assim, vão rastreando os comportamentos dos visitantes.
Essas empresas – com as quais você nunca teve relação – coletam dados da sua navegação para refinar um perfil comercializável seu. Num nível mais alto, esses dados são vendidos e cruzados com bases externas, tipo dados vazados do Serasa, histórico comercial, até dados de saúde. É assim que surgem os data brokers, os corretores de dados. Eles não têm relação nem com o seu uso da internet e nem com os sites por onde você passa. São empresas que compilam tudo isso para vender perfis completos, muitas vezes contendo nome, CPF, telefone ou nomes de parentes. Esse mercado alimenta desde a publicidade legítima até golpes e fraudes. Pessoas que passam golpe no WhatsApp, por exemplo, muitas vezes compraram o perfil da vítima, com foto e tudo, num site que fornece isso. Quem está nesses bancos de dados nem faz ideia que está sendo comercializado como produto.
FCW Cultura Científica – É isso que torna esses anúncios tão precisos – às vezes assustadoramente certeiros?
Marcelo Soares – Pois é. Esse cruzamento de dados em várias camadas captura o que você declarou, o que você fez dentro da plataforma, o que você fez fora dela, o que outras empresas sabem sobre você. E tudo isso é cruzado para montar um retrato seu que nem você teria feito. Já vi casos de gente recebendo anúncio para exercício para dor nas costas porque pesquisou ou interagiu com algum conteúdo sobre isso em outro site ou plataforma. Às vezes nem pesquisou, só parou para ver um vídeo que o algoritmo entendeu que estava relacionado. O sistema infere a dor e já oferece um tratamento. De vez em quando pode até acontecer de o tratamento ser legítimo, mas geralmente é saudável desconfiar.
FCW Cultura Científica – Como isso afeta a forma como consumimos conteúdo nas redes?
Marcelo Soares – O efeito mais direto é que o que aparece para a gente nas redes sociais não é neutro. As plataformas têm interesse em manter você dentro delas pelo máximo de tempo possível, porque assim podem lhe mostrar mais e mais anúncios e você tem mais chance de comprar algo. Por isso, o algoritmo calcula o que tem mais chance de te prender ali e é isso que vai lhe mostrar. Você vai ver mais postagens dos amigos com quem interage mais, não daqueles de quem tem mais saudade. Geralmente, interage mais com quem usa mais a plataforma, posta mais bobagem ou coisas mais engajantes. Se em vez de amigo é um assunto, a plataforma vai jogar os assuntos que fazem você dar mais sinais de que gostou – curtidas, compartilhamentos.
Meu Facebook está virado em páginas de quadrinhos antigos e vídeos sobre artistas de rock já idosos. Mas, quando a plataforma ainda não sabe nada sobre você, ela joga o que engaja mais a maioria. Se você abrir o YouTube num browser recém-instalado, sem se logar, vai ver o retrato do universo paralelo do que mais engaja no Brasil. Depois que a plataforma começa a te conhecer, personaliza tudo para segurar você lá dentro. Quanto mais tempo se passa, mais dados ela coleta, mais precisa ela fica, e mais tempo você continua lá. Esse ciclo é vicioso. E, como sempre pode vir uma surpresa na próxima rolagem de tela, a lógica vem sendo comparada com a das máquinas caça-níqueis.
O feed infinito é uma dessas táticas. Você rola, rola e sempre tem mais. As plataformas mais agressivas também “punem” links. O Facebook, por exemplo, reduz o alcance de postagens com links porque tiram o usuário da plataforma. O Instagram nem permite link clicável em posts comuns. O Twitter, agora X, também passou a privilegiar conteúdo nativo. O objetivo é manter o usuário dentro da bolha, para poder seguir coletando dados e vendendo anúncios. Com isso, segundo a autora Shoshanna Zuboff, elas transformam o comportamento do usuário para torná-lo mais previsível e com isso poder prever melhor o que lhe oferecer. O problema é que isso cria bolhas muito fechadas. O algoritmo vai deixando de mostrar coisas que não têm a ver com os seus interesses. É um sistema que transforma cada um de nós numa ilha de estímulos personalizados.
FCW Cultura Científica – Existe transparência sobre esses processos?
Marcelo Soares – As plataformas usam a ideia de "transparência" de forma muito elástica. Há uma transparência voltada ao consumidor, como a opção de ver em quais categorias de anúncios você caiu. Mas isso é difícil de acessar, fica escondido nas configurações e tenho quase certeza de que eles não mostram todas. Mesmo quando você encontra, a linguagem é vaga, para que você não entenda direito. Outra forma de transparência – a pública, sobre como as plataformas operam – está sendo sistematicamente desmontada. O Twitter, por exemplo, tinha uma API [interface de programação de aplicação] maravilhosa para pesquisa, onda dava para estudar quem falava com quem sobre determinados temas. Com a compra pelo Elon Musk, em 2022, isso acabou. E, com isso, perdemos a capacidade de monitorar articulaç ões de desinformação e extremismo em tempo real, por exemplo, que embasavam demandas de responsabilização das empresas. Os grupos que faziam esse tipo de pesquisa passaram anos sendo perseguidos politicamente, sofrendo ações judiciais. Mas o fechamento da API mediante a cobrança de um valor abusivo foi o prego no caixão desses estudos.
FCW Cultura Científica – Considerando a pouco transparência e os mecanismos para nos manter nessas ‘bolhas', podemos dizer que as redes sociais dificultam o acesso à informação confiável?
Marcelo Soares – Certamente, e isso foi ficando mais evidente ao longo da última década. A ideia de que "se for importante vai chegar até mim", que circulava bastante lá por 2012 quando estávamos todos apaixonados pelas redes sociais, é um mito que prejudicou muito o jornalismo. As pessoas foram perdendo o hábito de ir diretamente a quem produz notícias, esperando que as plataformas lhes entregassem o que fosse essencial. Só que o que circula mais nas redes não é exatamente isso – o que mais circula é o que for mais clicável, mais polêmico, que causa emoções fortes.
Jonah Berger, professor de marketing na Universidade da Pensilvânia (EUA) e autor do livro “Contagious: Why Things Catch On”, mostra isso com clareza em seu estudo: notícias com maior carga emocional são mais lidas e compartilhadas e, portanto, têm mais chances de viralizar. Especialmente se causam raiva, e essa mobilização permanente tem consequências políticas, sociais e até interpessoais. E, claro, o algoritmo privilegia esse tipo de conteúdo justamente porque engaja. O algoritmo não quer que você se informe; quer que você reaja curtindo, compartilhando, comentando, desde que seja tudo lá no jardinzinho murado delas. Politicamente, isso acaba inclusive desmobilizando e mobilizando de maneira assimétrica.
FCW Cultura Científica – Existe um caminho para o extremismo nesse modelo?
Marcelo Soares – Certamente. Zeynep Tufekci, professora de sociologia e relações públicas na Universidade de Princeton (EUA), mostrou isso no YouTube: você começa buscando vídeos sobre alimentação saudável e, se for seguindo as indicações da plataforma, ela vai subindo o tom gradualmente até mostrar teorias conspiratórias sobre vacinas. O algoritmo empurra para o conteúdo mais extremo daquele tema porque é o que mais prende atenção. Quanto mais você acata a sugestão do algoritmo, mais o seu comportamento se torna previsível e mais fácil fica alvejá-lo com anúncios. Mesmo que sua própria família deixe de suportá-lo.
FCW Cultura Científica – Como a inteligência artificial está envolvida nesse processo?
Marcelo Soares – A IA já está presente há muito tempo nas plataformas, especialmente na forma de aprendizado de máquina (machine learning). Ela analisa no agregado o que foi visto, onde foi clicado e o que foi ignorado, em comparação com todos os outros usuários – e usa isso para prever o que pessoas pessoas com gostos parecidos podem querer ver a seguir. Isso vale para redes sociais, para o Netflix e para qualquer plataforma que recomenda conteúdo. Na pior hipótese, você escolhe outra coisa pra ver na mesma plataforma, o que para eles é mais um sinal importante, ou desliga a TV e vai dormir.
Com a IA generativa, o cenário fica ainda mais complexo. Já tem gente usando esses modelos para produzir conteúdo em escala – vídeos, livros, podcasts –, às vezes com informações falsas. Em 2023, saíram dez "biografias" de Claudia Goldin, vencedora do Prêmio Nobel de Economia, no dia seguinte ao anúncio, algumas geradas por IA. Esses modelos simulam uma linguagem superconvincente, despejada na tela com base na probabilidade. Eu brinco que são “máquinas de encher linguística”, que chutam com a autoconfiança de um homem branco de meia-idade em uma mesa de bar.
Outro dia, fiz um teste e pedi para IA generativa três frases do Caio Fernando Abreu e recebi uma do Renato Russo, uma da Clarice Lispector e outra do Mário Quintana. A probabilidade estava ao favor do erro – os modelos foram alimentados com o conteúdo das redes sociais de há dez anos, quando com frequência se atribuía ao falecido cronista gaúcho todo tipo de frase que não era dele. Isso acontece porque o erro humano é sistemático – se eu for falar de física quântica, vou acabar falando bobagem em menos de cinco minutos –, enquanto o erro da inteligência artificial é probabilístico – circula em torno de uma média. Quem usa a IA gerativa sem checar direito o seu resultado tem uma probabilidade alta de espalhar desinformação pelo mundo. Quem checa direito e corrige o resultado do que gera nas máquinas de encher linguística, por outro lado, corre o risco de perder todo o tempo que ganhou usando o assistente digital. Ou até mais.
FCW Cultura Científica – Do seu ponto de vista, o que é necessário para uma regulação eficaz das plataformas?
Marcelo Soares – Sem tocar na questão jurídica, apenas em elementos que tecnicamente fariam sentido, o mais fundamental seria a transparência. As plataformas precisam ser obrigadas a abrir o funcionamento de seus algoritmos para auditoria. É fundamental saber como decisões são tomadas ali dentro – quem vê o quê, por que vê, quem pagou para aparecer. Precisam abrir os dados das postagens, como faz o Bluesky, como um dia fez o falecido Twitter, como o Facebook e o Instagram nunca fizeram. Outro ponto importante é a regulamentação de influenciadores. Eles exercem um poder imenso, vendem produtos, ideias e até apostas, como vimos recentemente na CPI das bets, sem nenhuma regulação clara. Durante a pandemia, os influenciadores ficaram ainda mais próximos do público. A relação de confiança que se criou ali foi explorada comercialmente de maneiras muitas vezes até abusivas, e isso precisa de limites.
Infelizmente, o Congresso brasileiro, hoje, tem parlamentares que atuam como influenciadores e evitam mexer nesse vespeiro. Fazem cortes de vídeo, engajam, monetizam. Até acabam provocando brigas físicas, numa baixaria imensa, em busca de engajamento – e de vez em quando, em busca de tirar do mandato algum adversário político, como ocorreu recentemente. É necessário entender que isso é parte da lógica de funcionamento das redes – e legislar com base nisso, não apenas com foco na comunicação tradicional.
FCW Cultura Científica – Existem redes sociais que funcionam de outra forma?
Marcelo Soares – Sim, e eu tenho explorado algumas. O Bluesky, por exemplo, tem uma lógica bem diferente do Twitter/X, embora tenha surgido como um projeto paralelo da empresa. Ele não tem um algoritmo empurrando o que tem mais chance de viralizar. Se eu posto algo pela manhã, só quem está online naquele momento vê. Se quero que mais gente veja, preciso repostar. Ele não penaliza links, nem privilegia conteúdo raivoso ou polêmico. Isso faz com que o ambiente seja menos tóxico. Os “trending topics” do falecido Twitter funcionavam na prática como uma TV ligada no bar, com volume alto. Por mais que você não esteja assistindo, isso interfere no assunto da conversa. No Bluesky não tem isso. Lá, vejo muito mais acadêmicos, mulheres, pessoas trans e neurodivergentes se sentindo à vontade. As ferramentas de automoderação são excelentes – você pode desconectar sua postagem de comentários ofensivos, seguir listas de moderação comunitária, bloquear perfis em massa. É uma experiência de rede social muito mais saudável. O Mastodon tem um protocolo ainda mais aberto do que o Bluesky, e permite maneiras muito mais flexíveis de moderar, mas muitos consideraram uma rede técnica demais e acabou não pegando no Brasil fora de comunidades mais técnicas mesmo.
FCW Cultura Científica – Falando nisso, como a moderação de conteúdo afeta a experiência nas redes?
Marcelo Soares – Moderação é fundamental. O que o Elon Musk fez no Twitter/X ao desmantelar as equipes de moderação foi catastrófico. No lugar disso, implementou as "notas da comunidade", que são moderadas pelos próprios usuários. Mas o que a gente vê é que essas notas seguem a mesma lógica de atenção: é mais fácil uma nota sobre a Taylor Swift ser proposta, votada e aprovada do que uma sobre vacinação. Assuntos muito polarizados não têm resolução e a nota acaba não sendo publicada. A moderação precisa ser técnica, transparente e orientada por princípios claros – não por popularidade ou engajamento. Quando quem grita mais alto ou posta com muita frequência – muitas vezes usando robôs – dá o tom do debate, reforça sempre os mesmos vieses que já distorcem o debate público nas redes sociais e prejudica o debate democrático. Às vezes essa frequência inautêntica é inclusive feita por pessoas pagas para isso, como vimos na eleição de São Paulo quando um candidato pagava pessoas para postar “cortes” de falas suas visando engajamento.
FCW Cultura Científica – E quanto ao futuro? Há esperança?
Marcelo Soares – Sim, mas depende da gente. Precisamos entender melhor como essas plataformas funcionam, cobrar transparência, apoiar iniciativas de regulação e buscar ambientes mais saudáveis para o debate público. Tem muita gente boa pesquisando e propondo caminhos – como os pesquisadores Letícia Cesarino, da UFSC, Rosana Pinheiro Machado, Francisco Brito Cruz, fundador do InternetLab e hoje independente, o Rafael Evangelista, do Labjor/Unicamp, e tantas outras vozes críticas e técnicas no Brasil e no mundo. As redes sociais moldam o que vemos, o que pensamos e até como nos comportamos. Não dá para deixar esse poder todo nas mãos de empresas que podem ser compradas por alguém que vai mudar seu caráter ou que, mesmo não sendo compradas, possam implodir os mecanismos de proteção dos usuários quando muda o governo. Precisamos pensar coletivamente em como queremos nos informar, nos comunicar e construir nossa visão de mundo. Talvez para isso valha a pena tentar cortar os laços de dependência com uma big tech por vez. Existem alternativas a todas elas. Mais importante ainda seria desplugar com mais frequência os laços sociais, conversar mais olho no olho com as pessoas em mais de 240 caracteres por vez, sem a obrigação de viralizar e sem ser assediado por anúncios, só pelo prazer de trocar com quem faz parte das nossas vidas. A vida offline é o que dá sentido a qualquer coisa que ocorra na tela.