top of page
  • Preto Ícone Instagram
  • Cinza ícone do YouTube

Entrevista

R. Marie Santini

Fundadora e diretora do Netlab (Laboratório de Estudos de Internet e Redes Sociais) da UFRJ fala sobre o funcionamento dos sistemas de curadoria algorítmica, seus impactos na indústria cultural, jornalismo e forma de consumo de conteúdo nas redes sociais. Santini aborda a evolução da indústria de desinformação, suas estratégias e impactos, além da relação entre as plataformas digitais e grupos políticos, especialmente da extrema direita, e alerta para a necessidade e os desafios da regulação e transparência das plataformas digitais

bing9.jpeg

Sobre

Rose Marie Santini é professora da Escola de Comunicação da Universidade Federal do Rio de Janeiro (UFRJ), atuando nos cursos de graduação, mestrado e doutorado. É fundadora e diretora do Netlab (Laboratório de Estudos de Internet e Redes Sociais da UFRJ), onde desenvolve pesquisa, ensino e atividades de extensão sobre o fenômeno da desinformação no Brasil e no mundo. É também pesquisadora da rede europeia VOX-Pol Network of Excellence, focada em pesquisar prevalência, contornos, funções e impactos do extremismo político online violento.

Tem experiência de pesquisa nas áreas de Comunicação e Informação com ênfase em Estudos de Internet e Redes Sociais. Atua principalmente nos seguintes temas: curadoria algorítmica e sistemas de recomendação online; manipulação e desinformação nas redes sociais; socialbots; propaganda computacional; comportamento e manipulação da opinião pública.

Autora dos livros “O Algoritmo do Gosto” volumes 1 e 2 (2020), além de dezenas de artigos científicos em revistas nacionais e internacionais. Lidera os projetos de pesquisa “Máquinas de opinião: propaganda computacional, contágio e desinformação nas redes sociais online”, “The media ecosystem dynamic regarding environmental issues, land use, indigenous people's rights and support for climate policies in Brazil” e “Propaganda Computacional, Desinformação e a Indústria da Influência Digital”.

FCW Cultura Científica – Nos volumes 1 e 2 de O Algoritmo do Gosto (2020), você analisa como os sistemas de recomendação online moldam o consumo cultural a partir do caso da música. O que são esses sistemas de recomendação online e como funcionam?

R. Marie Santini Os sistemas de recomendação são algoritmos que definem o que vemos ao acessar uma rede social ou plataforma. Eles fazem uma curadoria desse conteúdo que vemos com base em padrões de consumo de perfis semelhantes ao nosso. A lógica por trás disso vem da identificação de comunidades de gosto, uma ideia que a sociologia já conhecia e que a computação traduziu em códigos e previsões algorítmicas. A música foi um grande laboratório de tudo que aconteceria com o consumo cultural online   por ser facilmente digitalizável e compartilhável. Foi o primeiro tipo de conteúdo a sofrer os impactos da internet — pirataria, crise da indústria fonográfica — e por isso atraiu esforços de inovação tecnológica. Com isso, os primeiros sistemas de recomendação foram desenvolvidos para sugerir músicas. A partir dessa lógica de "comunidades de gosto", o modelo foi sendo replicado para outros tipos de conteúdos, como vídeos, notícias, textos e anúncios, ou seja, todo tipo de conteúdo online.


FCW Cultura Científica – Como esses sistemas operam nas plataformas digitais?

R. Marie Santini Eles trabalham a partir da análise do comportamento de grandes grupos de usuários. Quando você consome um conteúdo, o sistema cruza seus dados com os de outras pessoas que tiveram comportamentos semelhantes. Assim, ele não está prevendo o seu gosto individual, mas o da comunidade de gosto à qual você pertence. Esse é o princípio da recomendação colaborativa. O sistema te associa a um grupo com padrões de consumo parecidos e, com base nisso, sugere conteúdos. Ou seja, esses sistemas começam a prever o que você provavelmente vai gostar, se interessar ou achar relevante baseado no que alguém com perfil parecido com o seu consumiu ontem. Parece que o sistema é super inteligente, mas ele simplesmente identifica padrões.


No começo, houve uma tentativa de analisar o conteúdo a partir de elementos da própria música — por exemplo, o timbre de bateria ou guitarra — para prever o próximo conteúdo a ser oferecido, como se houvesse um “dna” musical que determinasse a preferência dos usuários. Logo, percebeu-se que era mais eficiente prever com base no comportamento de outros usuários. Isso porque a comunidade não consome um tipo de conteúdo totalmente homogêneo. Ela é heterogênea, combina conteúdos diferentes na sua preferência, mas existe uma identidade nos perfis. Isso muda totalmente a lógica da curadoria. Esses sistemas de recomendação algorítmica passaram então a organizar a oferta e a demanda dos conteúdos. O que para essas empresas foi genial, já que nesse sistema não há excedente: todo mundo tem um conteúdo para chamar de seu e todo conteúdo chega em algum usuário, de alguma maneira. 


FCW Cultura Científica – E como isso afetou a lógica de produção cultural?

R. Marie Santini Antes, a indústria tinha um problema: apenas cerca de 20% dos produtos culturais geravam lucro — era a chamada cultura pop, que vendia tanto que acabava pagando os outros 80%. Mas a verdade é que a indústria queria que todas as produções tivessem algum tipo de retorno sobre o investimento. Por outro lado, a sociedade pressionava por mais diversidade cultural, de conteúdos, opiniões.  Mas a diversidade não era viável economicamente. Com os sistemas de recomendação, mesmo os conteúdos de nicho passaram a ser monetizados, porque esses conteúdos passaram a ser direcionados para o público certo. Isso salvou setores como o fonográfico e o audiovisual, que passaram a depender da recomendação de conteúdo personalizada para tornar a  a diversidade lucrativa. 


Mas essa lógica beneficia mais as plataformas do que os criadores, que seguem sendo mal remunerados. As plataformas centralizam tudo: dados, distribuição, publicidade, e ainda definem e controlam as métricas de performance  que entregam aos artistas. O criador não sabe quantas vezes sua música foi tocada e não sabe os critérios utilizados para a recomendação de conteúdo, a não ser pelos números que a própria plataforma oferece a cada um deles. Essa questão do direito autoral é muito séria. As plataformas estimulam que os artistas produzam conteúdos e os coloquem lá de graça porque concentram todo o poder de distribuição e definem os padrões de consumo. Esse material então passa a ser encarado como divulgação e o artista tem que ganhar dinheiro de outra forma. 


FCW Cultura Científica – Quando saímos do campo cultural e entramos na informação, essa lógica se mantém?

Rose Marie Santini Sim, mas aí os efeitos são ainda mais preocupantes. Isso porque, como é sabido no campo da comunicação, as pessoas se deixam levar  pela curadoria de conteúdo, especialmente por conveniência. E elas passaram a confiar na curadoria algorítmica da mesma forma que confiavam na programação de rádio ou na manchete de um jornal. As pessoas confiavam que aquela música tinha sido selecionada para tocar na rádio porque ela tinha uma relevância social, e não porque alguém pagou — o chamado jabá, que inclusive é proibido no Brasil e muitos países do mundo, na rádio e no jornalismo. As pessoas seguem confiando na curadoria e, para além disso, acreditam que o que aparece nas plataformas foi selecionado de forma neutra, por meio de cálculo matemático e estatístico. Mas o algoritmo é uma programação feita por humanos, com pesos baseados em interesses e ganhos econômicos. E o que vemos é que as plataformas priorizam o que gera mais atenção e lucro, não o que é mais relevante, de qualidade ou confiável. Tudo  é tratado pela mesma lógica: o que engaja mais, aparece mais. 


A transparência sobre como as plataformas funcionam é mínima. Quando essas empresas de tecnologia surgiram, elas eram vistas como startups inovadoras, que entregavam tudo de graça para as pessoas, dando acesso à informação e fazendo uma revolução cultural. Essa visão foi cultivada durante vinte anos e teve algumas consequências. Uma delas, de ordem cultural, é essa confiança na curadoria algorítmica. E essa excessiva confiança e esperança depositada na tecnologia teve consequências econômicas e jurídicas: essas empresas cresceram muito e avançaram sem nenhuma regulamentação. Quando abrimos os olhos, elas eram as empresas mais poderosas do mundo, possuindo mais dados do que qualquer Estado (e até mesmo regimes autoritários) jamais teve sobre cada um dos cidadãos. Elas são os novos gatekeepers da informação. E trabalham para manter e aumentar esse poder, sem regulamentação, sob a bandeira de que não produzem conteúdo -- fazem “apenas” curadoria -- e, portanto, não têm responsabilidade sobre o que as pessoas colocam nas plataformas. A consequência disso tudo é que informações de baixa qualidade ou falsas circulam com mais intensidade que conteúdos jornalísticos sérios. Isso compromete o direito à informação de qualidade e o próprio funcionamento da democracia.


FCW Cultura Científica – E por que o conteúdo de baixa qualidade circula mais?

R. Marie Santini Porque ele é mais barato. Produzir informação de qualidade por meio do jornalismo é caro, exige tempo, checagem, profissionais qualificados. Já desinformação, conteúdo amador ou sensacionalista, é muito barato — e muitas vezes gratuito para as plataformas. O modelo de negócios delas se baseia nisso. Quanto mais conteúdo de baixo custo engajando usuários, melhor. Porque se elas tiverem que pagar pelo direito autoral, o modelo de negócio delas não fecha, ou seja, não é lucrativo o suficiente. A curadoria algorítmica não prioriza qualidade, ela prioriza duas coisas: a atenção do usuário e o modelo de negócios da plataforma.


FCW Cultura Científica – Como os veículos jornalísticos reagem a essa lógica?

R. Marie Santini Muitos veículos acabaram se submetendo a ela. Produzem conteúdo formatado para performar bem nos sistemas de recomendação. Mas  a indústria da informação, os grandes veículos de comunicação que têm poder econômico começaram a brigar com as plataformas, porque elas não pagam o direito autoral, e porque, enfim, estão disputando o mercado publicitário. Paralelamente, há um incômodo global sobre essa quantidade de conteúdo de baixa qualidade dentro das redes sociais. Qual foi então a estratégia das plataformas? Elas começaram a buscar os conteúdos de empresas tradicionais de comunicação, especialmente os de menor porte, que precisam de visibilidade para sobreviver. Elas oferecem "apoio técnico" e monetário, mas com isso guiam o tipo de conteúdo que ganha relevância nos algoritmos. E, com isso, elas moldam o formato e a lógica da produção de conteúdo jornalístico. O Google, por exemplo, financia projetos jornalísticos no mundo todo, mas ensina como produzir conteúdos mais “recomendáveis” para o seu sistema. Ou seja, as plataformas criaram um modelo em que o jornalismo precisa delas para sobreviver. O objetivo é fazer com que toda essa indústria da informação dependa delas como intermediários, que definem quem terá visibilidade e quem não terá. 


O campo passou muito tempo deixando claro que acordos comerciais para recomendar conteúdo é jabá, é proibido. Você tem que deixar claro para o usuário quando existe acordo comercial entre a plataforma e um veículo de jornalismo, se  recomendação faz parte de um acordo comercial ou não,  se foi paga de alguma maneira. Mas não amadurecemos essa discussão de jabá para as redes sociais. Se tiver interesse ou acordo comercial na recomendação de conteúdo, isso pode ou não pode ficar oculto para o usuário? Isso é publicidade ou decisão editorial? Ou seja, isso demonstra que não há neutralidade alguma nos algortimos e gera o que é chamado de desigualdade da visibilidade. Os conteúdos deveriam ser iguais perante um algoritmo, mas eles não são. Eles têm pesos diferentes.


FCW Cultura Científica – Agora entrando mais diretamente no tema da desinformação. O Netlab acompanha campanhas pelas redes desse tipo há anos. Como esse fenômeno evoluiu e como você o definiria no contexto atual? 

R. Marie Santini A desinformação sempre existiu, mas o que temos hoje é uma indústria coordenada, com escala global e instantaneidade. Antes, era mais artesanal. Quando os estudos sobre desinformação e política começaram, observava-se a atuação de grupos específicos, era algo mais parecido com ativismo ou hackers isolados. Em meados de 2016, com a primeira campanha eleitoral de Trump, nos Estados Unidos, e o referendo do Brexit, no Reino Unido, observou-se o uso da propaganda computacional para manipular o debate público. Ou seja, o uso massivo de bots, perfis falsos que inflam números de engajamento, criam falsas controvérsias, atacam adversários e amplificam discursos extremistas.


Hoje em dia não estamos mais lidando com boatos ou equívocos isolados, mas com estratégias organizadas que operam em escala industrial e global. Ela serve a interesses políticos, econômicos e até criminosos. E encontra nas plataformas digitais o ambiente ideal para se expandir: alcance massivo, baixa regulação e incentivo algorítmico à viralização de conteúdos sensacionalistas ou falsos. A profissionalização do setor é visível: há quem viva de criar, disseminar e monetizar desinformação. Mais recentemente, com ferramentas de IA generativa, é possível produzir em massa conteúdos que parecem legítimos, mas foram criados para enganar, manipular ou apenas lucrar. Com isso, essa indústria se sofisticou e enriqueceu, com interessados em diversos setores. Não necessariamente a desinformação é uma questão ideológica ou política. Hoje em dia, a desinformação é um mercado.


FCW Cultura Científica – Quais são os principais campos onde essa indústria da desinformação atua hoje? Você pode dar alguns exemplos?

R. Marie Santini Vemos isso claramente na política, na saúde e no meio ambiente. Nas eleições, por exemplo, há uso massivo de desinformação para manipular a percepção pública e interferir nos resultados. Essa indústria passa a fazer parte do conjunto de empresas que são contratadas em campanhas eleitorais para a produção de peças de propaganda para manipular o eleitor. Elas atuam disseminando informações falsas sobre candidatos, governos etc.; ou turbinando artificialmente algum assunto de interesse -- dando a sensação de que a opinião pública está indo para um determinado lado, que as pessoas estão discutindo algum assunto porque o consideram relevante, quando na verdade nada disso é real. É preciso garantir acesso à informação de qualidade e transparência em campanhas eleitorais para que as pessoas possam tomar suas decisões com base no que é real. Se não não há informação qualificada, se a população é manipulada com base em informações falsas, a democracia está realmente ameaçada. 


Outro exemplo que também considero muito grave é o campo da saúde. Nas redes, temos influenciadores, grupos e empresas promovendo curas milagrosas ou desinformação sobre vacinas. É algo que está sendo mapeado e que provavelmente será um dos grandes problemas de saúde pública. Se consideramos que a desinformação durante a pandemia de Covid-19 foi preocupante, hoje seria muito pior. Isso porque, nos últimos cinco anos, a indústria da desinformação se sofisticou e cresceu sem nenhuma punição ou monitoramento. 


Já na pauta ambiental, há uma guerra de desinformação para sabotar políticas públicas e desacreditar a ciência climática. São operações com objetivos claros e financiamentos diversos — de grupos políticos a setores econômicos. A desinformação virou ferramenta de lobby. E o problema é que, mesmo quem não acredita nela, sofre os seus efeitos. Como no caso das mudanças climáticas, por exemplo. O planeta e todas as pessoas pagarão pelas suas consequências.


FCW Cultura Científica – Qual a relação entre as plataformas digitais e grupos políticos, especialmente os de extrema direita?

R. Marie Santini  Grupos políticos que eram mais outsider, especialmente de extrema direita, construíram sua visibilidade nas plataformas. Eles estavam à margem da mídia tradicional — que tinha espaço para a direita, mas não para a extrema direita — e, ao ocuparem esse novo espaço digital, passaram a defender as plataformas como aliadas estratégicas. Esses grupos políticos usaram as plataformas para disseminar suas narrativas e seus conteúdos, e começaram a se estruturar no mundo digital. Ou seja, eles não estão inseridos no establishment tradicional e têm a rede como infraestrutura. Em troca da visibilidade que recebem, atuam contra qualquer tentativa de regulação. É uma relação de conveniência: as plataformas garantem espaço e alcance, e esses grupos oferecem apoio político para manter o ambiente desregulado. Com a falta de regulamentação das redes, eles próprios têm a garantia de que não serão responsabilizados pelos discursos de ódio ou pelas estratégias de comunicação baseadas em desinformação. Esses grupos de extrema direita se apropriaram da narrativa da liberdade de expressão para proteger um ambiente que lhes é extremamente favorável. Ou seja, aliaram-se o interesse econômico e o interesse político e se fez, no ponto de vista deles, um casamento perfeito. Mas, no nosso ponto de vista, uma tempestade perfeita.


FCW Cultura Científica O que seria necessário, então, para reverter esse cenário?

R. Marie Santini -  O enfrentamento desse problema envolve ações e soluções que passam por três camadas: cultural, política e econômica. Primeiro, precisamos entender que a desinformação não é um problema individual, mas coletivo. Não se trata, por exemplo, de ensinar o usuário a identificar fake news ou de responsabilizar pais, mães e cuidadores pelos conteúdos a que os adolescentes têm acesso hoje nas redes. A responsabilidade precisa ser das plataformas — e não do usuário. É necessário engajamento para regulamentar, inclusive pensando em gerações futuras. Culturalmente, também precisamos rejeitar a normalização da desinformação. As pessoas estão se acostumando a viver em um ambiente repleto de informação falsa. Clicam em anúncios enganosos, caem em golpes, e tudo bem. Isso não pode ser naturalizado. Isso precisa nos indignar. 


Do ponto de vista econômico, uma das saídas passa pela articulação social de setores da economia que percebam a gravidade da desinformação para o seu próprio negócio. Forças econômicas se unindo para enfrentar o interesse dessas empresas específicas, que precisam de algum limite. No campo político, por sua vez, não temos outra saída: é necessário regulamentar. Precisamos exigir transparência nos sistemas de recomendação e responsabilização das plataformas. Isso passa por regulamentação e fiscalização, além de legitimidade e força política para aplicação de leis já existentes.


As plataformas não são apenas espaços técnicos ou neutros — elas são ambientes com implicações sociais e políticas profundas. Precisamos discutir qual modelo de comunicação digital queremos como sociedade. Hoje, o modelo é centrado na atenção e no lucro das grandes empresas. Mas poderia ser outro, baseado em direitos, diversidade e interesse público. Essa mudança exige engajamento social, mobilização e vontade política. E, principalmente, exige que deixemos de naturalizar o caos informacional em que estamos vivendo.





Sphere on Spiral Stairs

Revista FCW Cultura Científica v. 3 n.2 Jun - Ago 2025

Edições anteriores:

Fundação Conrado Wessel

Rua Pará, 50 - 15° andar - Higienópolis - São Paulo - CEP 01243-020

(11) 3151-2141

bottom of page