
Editorial
A nova face do autoritarismo digital
O avanço das Big Techs transformou o ambiente digital em um espaço de vigilância, manipulação emocional e disputa política que pode levar à criação de um tecnofascismo, uma forma silenciosa e algorítmica de controle que molda comportamentos e amplia a desinformação

Sobre
Nesta edição, cientistas contam como polarização, autoritarismo digital e erosão institucional se entrelaçam e indicam caminhos para proteger a liberdade e a democracia
Em 1984, George Orwell imaginou um mundo governado pela vigilância total, em que o poder se sustentava pela manipulação da linguagem e pela dominação das mentes. Setenta e cinco anos após a publicação do romance, o “Grande Irmão” já não precisa de uma “teletela” fixada na parede: ela está no bolso de cada um de nós, sempre ativa, sempre conectada.
No livro, a teletela não podia ser desligada. No mundo atual, os celulares podem – mas poucos o fazem. As tecnologias que prometiam ampliar a liberdade individual e democratizar a informação transformaram-se, em parte, em instrumentos de dependência, controle e polarização.
A distopia de Orwell não se concretizou como prevista, mas algo igualmente inquietante surgiu em seu lugar. As Big Techs, grandes conglomerados da economia digital movidos por algoritmos que priorizam engajamento e lucro, construíram um ecossistema em que a atenção humana se tornou o recurso mais disputado. Cada clique, cada curtida, cada pausa diante da tela alimenta um modelo econômico baseado na vigilância comportamental e na manipulação emocional. Como advertiu Shoshana Zuboff, trata-se de um capitalismo de vigilância que redefine as fronteiras da privacidade e da autonomia.
É nesse contexto que surge o termo tecnofascismo – expressão usada pela historiadora Janis Mimura e retomada por pensadores como Jason Stanley para descrever o uso autoritário das tecnologias digitais como instrumentos de poder político e ideológico. O tecnofascismo não se manifesta apenas na censura explícita ou na repressão física, mas na captura invisível da atenção e na disseminação calculada da desinformação. É um autoritarismo algorítmico, silencioso, que se infiltra nas formas de pensar, sentir e decidir.
A imprensa e a academia começam a tratar o tema com a urgência que ele exige. Jornais, revistas e podcasts têm denunciado os riscos de deixar o espaço público digital sob domínio de poucas corporações privadas, capazes de influenciar eleições, desestabilizar democracias e moldar o imaginário coletivo global.
Nesta edição, FCW Cultura Científica entrevista cientistas cujos trabalhos contribuem para refletir sobre essa nova face do poder tecnológico – suas promessas, seus perigos e os caminhos possíveis para resistir à tirania invisível dos algoritmos.
Vinício Martinez, professor da UFSCar, analisa como as Big Techs se tornaram protagonistas visíveis do poder global, transformando dados e atenção humana no centro do capitalismo digital. Nesse cenário, surge o tecnofascismo como forma de dominação que atua por meio de plataformas e algoritmos, internalizando o controle e moldando comportamentos sob a aparência de liberdade.
“O tecnofascismo consiste na colonização do sujeito pela técnica, na transformação da tecnologia em instrumento de dominação totalizante. O que antes era a violência explícita dos regimes autoritários agora se apresenta sob a forma da adesão voluntária. O tecnofascismo é o fascismo do algoritmo, o fascismo do like, o fascismo do controle sedutor. Ele se disfarça de liberdade, mas opera como vigilância permanente – como controle da subjetividade”, diz.
Para Carla Montuori Fernandes, professora da UNIP, o tecnofascismo opera como estratégia para difundir desinformação, promover discurso de ódio e intolerância e engajar intensamente os internautas. “É o uso do poder digital para organizar a dominação simbólica: quem domina as narrativas nas redes tende a manter dominação simbólica no campo político. O bolsonarismo ilustra essa lógica ao manter uma narrativa permanentemente ativa e com forte adesão emocional”, diz.
Diferentemente do populismo tradicional, o tecnofascismo apoia-se na lógica das Big Techs, na coleta massiva de dados e na manipulação algorítmica para amplificar desinformação e afetos políticos. Segundo Fernandes, essa engrenagem fortalece narrativas extremistas, convertendo engajamento digital em mobilização física – como visto nos ataques de 8 de janeiro de 2023.
Ruben Interian, professor da Unicamp, relativiza a ideia de que os algoritmos sozinhos polarizam, apontando que há uma interação entre escolhas humanas, instituições e critérios algorítmicos. Segundo ele, a polarização envolve aspectos comportamentais – escolhas individuais –, institucionais e algorítmicos.
“Os algoritmos não decidem a quais informações teremos acesso apenas com base em critérios internos e obscuros. Os algoritmos são complexos e há critérios específicos que desconhecemos. No entanto, as escolhas mais relevantes são feitas por nós. Somos influenciados por fatores econômicos, ideológicos e morais. Às vezes, não temos interesse em sair das nossas bolhas. Não somos simplesmente conduzidos pelos algoritmos. Eles abrem caminhos, mas somos nós que escolhemos a direção”, diz Interian.
Ana Julia Bernardi, diretora de Projetos no Instituto Democracia em Xeque, destaca que a desinformação permanece persistente e potente, acelerada por plataformas pouco reguladas e, agora, pela inteligência artificial. Ela alerta para a “terceira onda de autocratização”, marcada pela disseminação global de discursos autoritários e estratégias de pânico moral. Para enfrentar esse cenário, Bernardi defende a regulação das plataformas, a cooperação interinstitucional e o investimento em educação política.
“A educação política é o antídoto de longo prazo contra a desinformação. Ela ajuda as pessoas a entender o funcionamento das instituições, o papel de cada poder e o impacto das políticas públicas. A educação política deve ensinar como pensar criticamente, não o que pensar. E deve estar articulada à educação midiática e científica para fortalecer o repertório crítico das novas gerações”, diz Bernardi.
Diante disso, cabe à ciência e à cultura – e, em particular, à comunicação científica – iluminar os mecanismos ocultos dessas plataformas, decifrar seus códigos e propor alternativas éticas e democráticas para o uso da tecnologia. Não se trata de nostalgia por um passado pré-digital, mas de uma defesa ativa da liberdade humana em um mundo governado por dados.
Em 1984, Orwell escreveu: “Quem controla o passado controla o futuro; quem controla o presente controla o passado.” Hoje, poderíamos dizer: quem controla os dados controla o mundo. A diferença é que, agora, o controle não se impõe pela força, mas pelo fascínio. Apesar disso, o futuro ainda não está escrito – e cabe a todos nós garantir que ele aponte na direção da democracia e da liberdade.
Boa leitura!
Carlos Vogt
Editor chefe
Pangloss revisitado
Não há bem
que tão longo
dure
não há mal
que o tempo
não cure
Carlos Vogt, em A Cidade e os Livros


















