
Entrevista
Carla Montuori Fernandes
Professora da UNIP destaca o papel opaco dos algoritmos, a importância de métricas de monitoramento, a fragilidade da moderação no Brasil e a urgência de políticas públicas que combinem letramento midiático, transparência, regulação e responsabilização das plataformas. "Tecnologia não é neutra", diz

Sobre
Carla Montuori Fernandes é pesquisadora e professora em Comunicação com foco em desinformação, extremismo on-line e mídias digitais. É professora titular do Programa de Pós-Graduação em Comunicação e Cultura das Mídias da Universidade Paulista (UNIP), onde integra a Vice-Reitoria de Pesquisa e Pós-Graduação. Coordena o Observatório de Desinformação e Intolerância (CNPq) e a pesquisa “A desinformação como estratégia de poder e mobilização virtual” (Fapesp nº 2024/04203-8).
É graduada em Ciências Sociais (Universidade da Cidade de São Paulo) e possui doutorado em Ciências Sociais com ênfase em Comunicação Política (PUC-SP). Realizou pesquisas de pós-doutorado em Comunicação Política (Universidade de Valladolid, Espanha) e em Ciências Sociais (PUC-SP).
Sua produção acadêmica investiga como ecossistemas digitais moldam crenças, emoções e comportamento político, com ênfase em dinâmicas de mobilização e na circulação de narrativas em plataformas. Combina repertório teórico de comunicação política e estudos sociotécnicos a métodos de análise de discurso e de conteúdo, observando mediações algorítmicas, orquestração de redes e efeitos na opinião pública.
FCW Cultura Científica – Carla, você tem uma trajetória de pesquisa em comunicação política em diferentes meios, incluindo as plataformas digitais. Como se dá a pesquisa na área e qual é a definição de tecnofascismo nessa perspectiva?
Carla Montuori – Comecei estudando campanhas eleitorais e como a mídia representa a política, olhando mais para a comunicação do que para a teoria política. No início dos anos 2000, examinei a mídia tradicional – sobretudo imprensa e telejornalismo – e a forma como ela enquadrava a política, especialmente em contextos eleitorais.
A partir de 2016, com a eleição de Trump e o Brexit, ganhou força a noção de “pós-verdade”, que depois se combinou com desinformação nas mídias digitais. Em seguida, quando o fenômeno se consolida também aqui no Brasil, volto o foco da minha pesquisa para as plataformas – especialmente redes sociais – e passo a observar um movimento que se assemelha ao populismo ou mesmo ao fascismo, mas inserido na dinâmica digital.
Nesse contexto, eu diria que tecnofascismo é um fenômeno sociocrítico que combina tecnologia digital e manipulações algorítmicas: algo que soa democrático, mas é autoritário. São estratégias embutidas no funcionamento das plataformas para promover ideologias extremistas, antidemocráticas e discursos excludentes. É um “novo” fascismo apoiado nas infraestruturas tecnológicas das Big Techs, em grandes bancos de dados e na coleta de informações sobre como as pessoas se orientam nas redes. A partir disso, é possível compreendê-las melhor e dialogar com elas por meio de dinâmicas de polarização.
FCW Cultura Científica – Quais elementos o diferenciam do populismo convencional?
Carla Montuori – O tecnofascismo opera como estratégia para difundir desinformação, promover discurso de ódio e intolerância e engajar intensamente os internautas. É o uso do poder digital para organizar a dominação simbólica: quem domina as narrativas nas redes tende a manter dominação simbólica no campo político.
O bolsonarismo ilustra essa lógica ao manter uma narrativa permanentemente ativa e com forte adesão emocional. As pessoas se vinculam afetivamente a esses conteúdos. Gosto do conceito de Hooliganismo Político, de torcidas que agem com amor, ódio, vibração. Os algoritmos potencializam essa dimensão afetiva. Em suma, a força das plataformas e das mídias digitais reconfigura o jogo político e torna esse fenômeno particularmente eficaz.
FCW Cultura Científica – Qual é o papel dos algoritmos nessa dinâmica? O que a IA generativa adiciona nesse ecossistema?
Carla Montuori – O ponto de partida é: tecnologia não é neutra. Algoritmos, especialmente os de inteligência artificial (IA), coletam grandes volumes de dados e são programáveis para orientar tendências. A matemática e cientista de dados Cathy O’Neil fala em “algoritmos de destruição em massa”, mostrando como algoritmos reforçam preconceitos, sobretudo raciais. O termo "caixa preta", cunhado pelo antropólogo e sociólogo francês Bruno Latour, também nos ajuda a pensar as opacidades desses sistemas, já que seus mecanismos de funcionamento não são claros.
Sabemos, no entanto, que os algoritmos são treinados em bases que refletem padrões sociais, culturais e históricos. À medida que o usuário interage, fornece sinais que posicionam o sistema e tendem a colocá-lo em padrões ideológicos alinhados às suas preferências — as chamadas bolhas ou câmaras de eco, difíceis de atravessar e que se autoalimentam.
Esses sistemas mobilizam afetos na política por uma lógica quase matemática: coletam dados, identificam perfis e semelhanças e disparam conteúdos que confirmam aquilo em que a pessoa já acredita – o chamado viés de confirmação –, criando redes homofílicas. Esse ciclo mobiliza e engaja, aumentando o faturamento das plataformas. A polarização e a guerra cultural alimentam tanto o debate quanto o modelo de negócios das Big Techs, e uma coisa retroalimenta a outra.
FCW Cultura Científica – Passando ao contexto brasileiro: no seu estudo sobre a rede social X/Twitter e os eventos de 8 de janeiro de 2023, como códigos e símbolos militares operaram na prática?
Carla Montuori – Esse estudo integra uma pesquisa financiada pela Fapesp [Fundação de Amparo à Pesquisa do Estado de São Paulo] sobre narrativas bolsonaristas em 2023–2024, logo após a derrota de 2022. A primeira coleta foi feita quando a API [Interface de Programação de Aplicações] do Twitter ainda estava aberta. Concentrei a coleta nos dias que antecederam a invasão e os ataques nas sedes dos Três Poderes em Brasília, no próprio dia e no dia seguinte.
Em 8 de janeiro, a conjuntura transbordou do online para o offline, em forma de possível ruptura institucional. Esse cenário vinha sendo desenhado desde a pré-campanha, com forte desinformação na pandemia e, depois, a contestação reiterada das urnas — inclusive em atos de 7 de Setembro. Após a derrota, o discurso radicaliza e assume tom patriótico (“salvar o país”), deslocando a conversa do aspecto técnico das plataformas para a defesa da nação.
Nas postagens, isso aparece com força. Identifiquei muitos bots [robôs] e um engajamento coordenado associado a referências militares. No recorte da pesquisa, a hashtag “Festa da Selma” é apresentada como um grito militar, e diversos perfis – muitos recentemente criados na ocasião – enalteciam o movimento como legítimo e vitorioso. Havia vídeos e tweets a cada segundo, evidenciando alto grau de coordenação. Além disso, as coletas já indicavam vieses e presença de robôs.
FCW Cultura Científica – Como você avaliou a proporção de bots nessa mobilização?
Carla Montuori – Usamos o Botometer, que hoje não atende mais a esse fim após restrições de acesso pelo X. Coletei os dados via API do Twitter com a hashtag #FestadaSelma e gerei a rede em software que identifica perfis de maior engajamento. Os 10 perfis principais respondiam por cerca de 80% da conversação. Foquei a análise neles porque o restante era muito difuso e, em análise de redes, importam clusters e comunidades.
Para identificar bots, inseri cada perfil no software (que atribui nota de 0 a 5 para probabilidade de robô) e fiz inspeção manual. Observei a data de criação dos perfis – muitos surgiram logo após a derrota de Bolsonaro – e seus comportamentos. A maioria contava com publicações quase só de compartilhamento automático. Houve perfis apontando países estrangeiros, sem corresponder ao local alegado nas postagens durante os eventos. Alguns perfis, ainda, foram depois citados em investigações da Polícia Federal.
FCW Cultura Científica – Como você avalia a relevância dessa dinâmica de coordenação e amplificação para a passagem do ambiente digital ao físico, culminando nos ataques de 8 de janeiro?
Carla Montuori – Vejo dois conceitos centrais para entender a passagem do digital ao físico: campanha permanente e guerras culturais. A narrativa “nós contra eles” – dirigida a instituições e adversários políticos – sustenta uma mobilização contínua que forma um “exército” disponível para a ação. Nesse ambiente, a coordenação online serve para produzir adesão, identidade e senso de urgência. Historicamente, o bolsonarismo buscou mostrar força nas ruas – um indicador considerado mais real de poder do que as redes. Nas plataformas, essa estratégia se traduziu em convocações explícitas e logística organizada, convertendo engajamento digital em presença nas ruas. É um ciclo conhecido: quando a mobilização atinge massa crítica, a força simbólica vira força prática.
O 8 de janeiro é o ápice dessa dinâmica: coordenação e amplificação produziram a passagem do discurso à ação, com a rua como prova de força. O objetivo era demonstrar poder político e tensionar as instituições, mostrando que a capacidade de convocação virtual podia se materializar em ação coletiva.
FCW Cultura Científica – Há alguma métrica ou sinal nas redes que funcione como alerta precoce – algo que costuma anteceder e deflagrar ações?
Carla Montuori – Sim, embora seja uma das questões mais difíceis. Primeiro, é preciso compreender a capilaridade do movimento. Se no início havia um “gabinete” alimentando a rede, hoje a articulação se dá pelos próprios agentes, que se consolidaram com a web 2.0: na qual emissores e usuários se sobrepõem e desempenham papéis simultâneos.
Esses agentes são figuras do campo político, influenciadores, ativistas remunerados e pessoas comuns. Muitos se mobilizam e replicam conteúdo em alta cadência. O desafio é criar mecanismos de monitoramento, porque desinformação e “guerra cultural” operam com intensidade e constância quase impossíveis de acompanhar em tempo real.
Quando Bolsonaro foi condenado, acompanhei a fanpage “Somos Todos Bolsonaro” e recebi mensagens a cada segundo tentando deslegitimar o julgamento. Como agir diante de mobilização tão afetiva? Que forças ajudam a diluir um debate extremamente polarizado e tóxico, atravessado por ódio e intolerância?
Há uma tendência recorrente de reduzir esses participantes a rótulos como “bolsominions”, “ignorantes” ou “de baixo letramento”. Porém, as pesquisas mostram que esse público é extremamente heterogêneo. Trata-se de um movimento composto por diferentes estratos socioeconômicos, níveis educacionais e repertórios culturais. O que os une não é ignorância, mas uma combinação de identificação afetiva, percepções de ameaça, vínculos comunitários e a sensação de pertencimento a um projeto político que lhes confere sentido, reconhecimento e agência. Por isso, caracterizar esse grupo apenas como desinformado ou irracional obscurece a complexidade das dinâmicas que o sustentam. O movimento representa, antes de tudo, uma articulação política enraizada, com forte capacidade de mobilização e com narrativas que atendem a demandas simbólicas e emocionais de parcela significativa da sociedade.
FCW Cultura Científica – Em ano eleitoral, como o jornalismo deve cobrir o assunto sem virar gatilho de mobilização?
Carla Montuori – O jornalismo é articulador central das mobilizações que migram para as redes. O “cidadão de bem” alimenta as plataformas, muitas vezes a partir do que a imprensa pauta. Exemplo: “Lula encontrou Trump e houve um ‘match’.” Em seguida, a imprensa busca reações de Carlos e Eduardo Bolsonaro sobre o episódio. Mesmo sob ataque desses agentes, a imprensa segue disputando narrativas e, ao competir com plataformas, tende ao espetáculo cotidiano.
Precisamos refletir sobre como o Brasil absorve essa dinâmica. Importamos tecnologia e, com ela, modelos de negócio e lógicas de atenção que nem sempre se ajustam ao nosso contexto. A cobertura responsável exige calibrar noticiabilidade com impacto público para evitar servir de amplificador involuntário.
FCW Cultura Científica – Que recomendações daria para quem faz pesquisa sobre radicalização on-line no país?
Carla Montuori – Do ponto de vista ético e jurídico, recomendo trabalhar com bases de dados públicas, não contornar APIs fechadas, respeitar termos de uso e anonimizar pessoas comuns. Ainda que quem publica nas redes esteja exposto, é ético anonimizar na pesquisa, sobretudo em conteúdos que afrontam a Constituição (como ódio contra menores e racismo), que podem levar agentes a processos. O foco deve ser a análise, não a exposição. Para esse tipo de pesquisa, além de método, é preciso preparo para possíveis perseguições. Já vimos plataformas conspiracionistas acionarem pesquisadoras e pesquisadores na justiça. O discurso de ódio reverbera sobre quem pesquisa.
FCW Cultura Científica – Saindo da pesquisa para o ambiente das plataformas, que aspectos mais pesam hoje no Brasil para essa radicalização nas plataformas?
Carla Montuori – No caso do X (antigo Twitter), vimos relaxamento de políticas de moderação da plataforma e, localmente, houve a demissão de equipes no Brasil, o que reduz capacidade de resposta e cumprimento de ordens judiciais. Há discussão sobre se profissionais de Big Techs deveriam ser responsabilizados pelo conteúdo que circula em suas plataformas. Eu acredito que sim – da mesma forma que um CEO de varejo responde por fraude contábil, plataformas precisam cumprir a legislação do país onde operam.
No Brasil, há ainda o papel dos próprios legisladores: muitos se promovem nas plataformas e têm pouco interesse em definir regras mais firmes. Temos uma bancada conservadora e de extrema direita robusta, que se alimenta desse discurso. O extremismo ataca avanços sociais e culturais, especialmente aqueles relacionados à diversidade, às pautas antidiscriminatórias e às questões étnico-raciais e de gênero. Em campanhas formais, o TSE fiscaliza e pode derrubar conteúdos; nas redes, o espaço de regulação é frágil. E, para muitos atores, não é interessante fortalecê-lo.
FCW Cultura Científica – Dado esse cenário, quais prioridades regulatórias e de política pública você enxerga para o Brasil? E o que está em jogo?
Carla Montuori – Entendo que o caminho seja o letramento midiático, acompanhado de medidas que assegurem um debate mais saudável. É necessário começar cedo, junto à alfabetização. Países europeus investem em educação para as mídias como estratégia de mitigação: capacitar o cidadão a perguntar, checar, pensar criticamente.
Em paralelo, entra a pauta da regulamentação das plataformas: transparência e auditoria algorítmica, proteção de dados e medidas antitruste. E, claro, é preciso assegurar a execução. O ordenamento já tipifica crimes (discurso de ódio, racismo) independentemente do meio; sem fiscalização, a lei não se sustenta no ambiente das plataformas.
Em síntese, a camada tecnológica reconfigura táticas antigas, acelerando e massificando tudo sob o argumento da liberdade de expressão. Sem um conjunto combinado – letramento, transparência, auditoria, proteção de dados, antitruste e enforcement –, desinformação e discurso de ódio continuarão a se beneficiar dos incentivos econômicos das plataformas, produzindo efeitos sociais e políticos que já conhecemos de outros contextos, agora turbinados pela lógica digital.


















