Pesquisadora em comunicação, Nina Santos se dedica a estudar a disseminação de informação em plataformas digitais e os impactos políticos das transformações do sistema de comunicação. Ela foi uma das palestrantes do Festival 3i 2024. Foto: Any Duarte/Casa Lab.
Em entrevista exclusiva realizada durante o Festival 3i 2024, organizado pela Ajor, a pesquisadora abordou regulação de plataformas e combate à desinformação
fev 14, 2025
*Por Carla Egydio e Tainah Ramos, da Ajor
A integridade da informação foi um dos temas centrais do Grupo de Trabalho de Economia Digital durante o período em que o Brasil esteve na presidência da Cúpula do G20 no último ano. O termo é novo e seu conceito ainda está majoritariamente ligado ao Norte Global, onde também estão as principais empresas de tecnologia que dominam o ecossistema digital. A Ajor (Associação de Jornalismo Digital) foi uma das organizações que contribuíram com a construção do documento do GT.
Convidada para participar da mesa “IA e Jornalismo: Riscos e potencialidades” no Festival 3i 2024, a pesquisadora Nina Santos concedeu uma entrevista exclusiva à Ajor durante o evento sobre o conceito de integridade da informação, regulação de plataformas digitais e combate à desinformação.
Nina Santos é pós-doutoranda no Instituto Nacional de Ciência e Tecnologia em Democracia Digital e pesquisadora associada do Centre d’Analyse et de Recherche Interdisciplinaires sur les Médias (Université Paris II).
“Um dos problemas que temos hoje é que grande parte do debate público passa pelas plataformas digitais, que não são neutras. Elas têm uma estrutura interna que rege o debate público, ou seja, hoje elas são capazes de decidir o que vale e o que não vale no debate público. Elas criam as regras. Só que muitas vezes não sabemos quais são essas regras”, afirma Santos. Confira a entrevista na íntegra:
Ajor: O governo brasileiro pautou a integridade da informação nas discussões do G20. Qual a sua leitura sobre esse tema e a importância deste debate em uma articulação internacional?
Nina Santos: Eu acho que enquadrar o debate sobre integridade da informação é uma tentativa de mudar, digamos, o foco. [Passamos] de um foco mais negativo, do combate à desinformação e combate ao discurso de ódio, para um foco mais positivo, propositivo. Nós queremos algo, que gostaríamos de ter: a integridade da informação. Portanto, eu vejo isso positivamente.
No entanto, qual é o problema que eu vejo por trás do uso desse termo? Primeiro, o fato de que é um tema muito novo, e tem pouca coisa escrita sobre isso. Segundo, os textos escritos vêm, basicamente, do Norte Global, sobretudo dos Estados Unidos – alguma coisa na Europa, mas sobretudo dos Estados Unidos. Isso significa que existe um imaginário por trás da criação desse termo, que é um imaginário que não necessariamente dialoga com as prioridades e com as realidades do Brasil ou de outros países do Sul Global.
Quando pesquisamos sobre o histórico desse termo, como surgiu e as primeiras vezes que foi mencionado, [ele] aparece muito próximo dos debates sobre interferência estrangeira, por exemplo, as interferências estrangeiras chinesa e russa, e de países de fora do Ocidente no cenário comunicacional americano – que, nesses debates, é um cenário a ser protegido.
Essa é uma visão que não necessariamente dialoga com o Brasil. Se fôssemos elencar quais são os cinco principais problemas da realidade atual do ecossistema de comunicação no Brasil, será que esses temas seriam os principais problemas? Me parece que não. O que significa para mim que precisamos moldar esse termo.
Se o Brasil quer defender e se é estratégico defender a integridade da informação no contexto internacional, seja no G20, na ONU, ou em qualquer outro espaço global, então precisamos dizer o que ele significa para nós. Como esse termo dialoga com as desigualdades sociais que temos no Brasil? Qual a relação do termo com o racismo, com o nível de impacto ambiental que as mudanças climáticas estão causando, com o fato de ter sido colonizado, com o fato de termos tido uma população escravizada e com o fato do Brasil ser um país que está subordinado a plataformas digitais que não estão sediadas aqui? Esse é um contexto completamente diferente do americano. Essa é a minha visão do desafio que acho que temos em relação a esse conceito.
Ajor: Na sua opinião, qual o papel do jornalismo no debate da integridade da informação e como você enxerga essa questão?
Nina Santos: Acredito que o jornalismo tem dois papéis. No que diz respeito ao conceito de integridade da informação, não temos como pensar em um ambiente comunicacional saudável sem pensar em informação de qualidade. A produção da informação de qualidade me parece central para se ter integridade da informação. E, claro, o jornalismo é fundamental nisso. Nãosomenteo jornalismo, mastambémo jornalismo.
Para além do lugar do jornalismo dentro do termo do conceito de integridade da informação, há outro papel, que é o social, em provocar esse debate. Temos que debater o que é integridade da informação. As pessoas precisam formar opinião, porque senão vamos ter mais um termo que possivelmente daqui a dois ou cinco anos vai virar outro termo que não cria raiz social, ou seja, que as pessoas não sabem o significado e como impacta a vida delas. Como consequência, quando tivermos que encarar qualquer tipo de disputa sobre o termo, por exemplo, debater e votar uma legislação, não conseguiremos ter apoio social, porque aquilo simplesmente não diz nada para as pessoas. Por isso, acho que o jornalismo tem um papel de promover o debate, inclusive porque o jornalismo, frente a outras partes do sistema comunicacional, tem um nível de organização e algum nível de poder.
Penso nestes dois lugares: um dentro do conceito, que é essencial, e outro no papel social de fazer com que sejamos capazes de construir uma ideianossado que é integridade da informação.
Ajor: Diversas organizações da sociedade civil pleiteiam mais transparência nas atividades das plataformas digitais. Quais as relações entre a falta de transparência e a promoção da desinformação em tais plataformas?
Nina Santos: Um dos problemas que temos hoje é que grande parte do debate público passa pelas plataformas digitais, que não são neutras. Elas têm uma estrutura interna que rege o debate público, ou seja, hoje elas são capazes de decidir o que vale e o que não vale no debate público. Elas criam as regras. Só que muitas vezes não sabemos quais são essas regras.
“Ah, mas tem as políticas das plataformas”, alguém poderia dizer. Sim, existem as políticas das plataformas. Mas, primeiro, não sabemos se essas políticas são de fato implementadas ou não. Segundo, essas políticas não dizem respeito a todas as estruturas das plataformas. Por exemplo, como é que funciona um algoritmo que decide qual conteúdo vai ser apresentado para cada pessoa? O que é que ele leva em conta? O número de curtidas, o número de comentários, o número de compartilhamento, o tempo de tela que a pessoa parou para olhar aquele conteúdo? Quais são os elementos? No caso de haver um link, é levado em conta para onde esse link direciona? Temos visto, inclusive, documentos vazados em relação a isso. Essas informações não são informações de conhecimento público. Tudo isso diz respeito à circulação de informação e diz respeito à circulação de desinformação também.
A transparência das plataformas digitais está diretamente relacionada à nossa capacidade de saber como funciona a circulação de informação e entender as lógicas que estão por trás da circulação de desinformação.
Tem um aspecto específico da transparência que é o acesso a dados. Estamos em um momento especialmente problemático para ter acesso a dados das plataformas, o que tem consequências na possibilidade de fazer pesquisa e poder fazer estudos e avaliações sobre o que se passa dentro dessas plataformas. Estamos vivendo, como nunca antes, um momento de fechamento de acesso aos dados dessas plataformas, especialmente para países do Sul Global, fora dos Estados Unidos, fora da Europa, e isso é extremamente grave.
Ajor: Quais as principais estratégias para combater a desinformação?
Nina Santos: As estratégias para combater a desinformação são muitas, porque é um problema estrutural. Precisamos pensar não na unicidade da desinformação, naquela informação falsa que vai ser criada ou naquela deep fake, mas sim em como isso vira um problema estrutural. E, para resolver um problema estrutural, precisamos de soluções estruturais também.
Certamente, o combate à desinformação passa por discutir regulação, transparência, regras de publicidade online, sustentabilidade do jornalismo e regras de inteligência artificial. Além disso, uma regulação bastante complexa passa por promover a educação midiática, ou seja, fazer com que as pessoas consigam entender como essas plataformas funcionam, como isso afeta a vida delas e, sobretudo, como elas podem usar as plataformas de uma maneira democrática para fortalecer e empoderar sua cidadania.
[O combate à desinformação] passa também pelo fact checking, que sim, não vai resolver o problema, mas vai dar elementos para argumentarmos que uma determinada informação é falsa. Passa, ainda, por uma discussão de mercado e por uma regulação – que geralmente não é pensada – sobre o conteúdo, isto é, essa estrutura interna das plataformas, que poderíamos denominar como a estrutura de mercado que essas próprias plataformas estão criando.
Esses são alguns dos elementos que precisam ser construídos, trabalhados, e enfrentados para tentar – se não resolver – pelo menos mitigar o problema da desinformação hoje.
Ajor: Quais são os meios para enfrentar o financiamento da desinformação, como o uso de anúncios?
Nina Santos: Esse caso é extremamente grave por dois motivos: primeiro, porque com a publicidade você consegue fazer a desinformação chegar mais longe; segundo, porque as plataformas estão recebendo dinheiro para divulgar essas essas informações falsas, o que é diferente de um conteúdo orgânico.
Esse é um caso específico em que as empresas precisam ser responsabilizadas de uma maneira diferente, inclusive porque existe um processo de aprovação desses anúncios, diferente de um conteúdo orgânico para o qual não existe uma moderação a priori. Se aquele conteúdo infringir algum termo de uso, e se esse termo de uso estiver de fato sendo aplicado, pode ser que o conteúdo seja retirado. Mas não existe uma avaliação a priori, como seria na publicidade, em que você lança o anúncio e espera um tempo de aprovação, no qual a plataforma analisa se aquela publicidade está de acordo com as regras estabelecidas por eles e só depois esse conteúdo vai ao ar. Ou seja, se uma informação vai ao ar e tem um conteúdo criminoso ou tem desinformação, as plataformas precisam ser responsabilizadas por isso.
É muito interessante pensarmos nessa intersecção da desinformação com os sistemas econômicos, como as informações falsas são incentivadas por esses sistemas e como eles são usados para promover ainda mais a impunidade frente a casos de desinformação.
Ajor: Há muito receio sobre o impacto das ferramentas de inteligência artificial (IA) generativa na desinformação. Tendo em vista essa relação, quais os pontos de atenção que precisamos ter na regulação de IA?
Nina Santos: Falando de maneira mais ampla sobre como pensar os riscos nessa relação, acho que um primeiro ponto importante é assumir que é um tema novo, que temos poucos parâmetros e que precisamos experimentar. Este ano [2024], por exemplo, foi a primeira vez que uma resolução do TSE (Tribunal Superior Eleitoral) falou especificamente sobre inteligência artificial em eleições.
Precisamos também nos dar conta de que, apesar de ter coisas muito novas, com a popularização do ChatGPT, do Gemini e outras ferramentas de IA, que, de fato, facilitam a criação de conteúdo falso, a maior parte do uso de inteligência artificial está embutida em plataformas que as pessoas já usam cotidianamente. As redes sociais usam inteligência artificial, os mecanismos de busca usam inteligência artificial e esse é um uso sistêmico.
Eu entendo que haja uma preocupação com esses conteúdos, e com o fato de que as pessoas vão criar mais [conteúdos] fakes e criar textos que são completamente artificiais, sem nenhuma relação com a realidade. Sim, isso é possível. Mas essa interação entre a criação de conteúdo e a distribuição do conteúdo feita por essas plataformas digitais é que me parece o maior risco. Então, eu não acho que devemos deslocar a discussão da regulação de plataformas para discussão de regulação de IA. Me parece que as duas coisas precisam ser discutidas conjuntamente.
Esta entrevista é um exemplo do tipo de discussão que promovemos no Festival 3i, que tem se consolidado como um dos principais eventos da América Latina para discutir as inovações e desafios do ecossistema jornalístico. A Ajor já está preparando a edição de 2025! Por isso, fique de olho nas nossas redes sociais! Se quiser receber em primeira mão as informações sobre o festival, escreva para festival3i@ajor.org.br