Entrevista com Fernanda Rosa, por Veridiana Domingos Cordeiro

Esta entrevista foi realizada originalmente em português em setembro de 2023.

Fernanda R. Rosa é doutora em comunicação pela American University (Washington, D.C.) e bacharel em Ciências Sociais pela Universidade de São Paulo. Atualmente é Professora Assistente no Departamento de Ciência, Tecnologia e Sociedade da Virginia Tech. Atualmente, ela está trabalhando em seu segundo projeto de livro, cuja narrativa constrói uma ponte entre debates técnicos sobre infraestrutura de interconexão da internet e justiça social, a fim de examinar a governança e o design da internet a partir da perspectiva do Sul global.

Veridiana: Como você vê o impacto da inteligência artificial na rede/internet no que diz respeito à vigilância e disseminação de desinformação?

Fernanda Rosa: Há décadas, estamos trabalhando nas Ciências Humanas, com ferramentas para explicar como a sociedade funciona e como há questões de desigualdade que nós não deveríamos reproduzir, a história nos mostrou como certas pessoas foram discriminadas sem razão de ser, como as mulheres foram deixadas para trás por conta de uma estrutura de poder. Estamos trabalhando essas questões há tanto tempo e as pessoas estão começando a pensar a respeito, as instituições estão começando a tomar ações a esse respeito. As pessoas negras estão começando a se tornarem professores universitários, as populações indígenas estão começando a fazer curadoria de arte no MASP, estamos começando a ver mudanças. As ciências sociais estão começando a ver as transformações sobre as quais elas debatem. De repente, vem a tecnologia e passa a perpetuar o que já tivemos até agora: a desigualdade, há uma automatização das desigualdades. É como se estivéssemos fazendo um trabalho de formiga e de repente a tecnologia destruindo isso. A forma como a inteligência artificial está sendo construída e implementada, baseada em um lucro que não tem limites, tem silenciado e apagado minorias. É um desafio a mais que teremos de minimizar desigualdades. Estudar desinformação há dez anos atrás era falar de letramento digital, era analisar as fontes, quem publicou, de onde veio, refletir sobre as intenções dessas publicações... Desde 2016, temos a emergência das fake news com mais força nas eleições americanas, tivemos o caso do Brexit e, agora, as questões não se restringem ao letramento digital. Temos que lidar com o letramento acerca da inteligência artificial, o que são as deep fake, por exemplo. Em um contexto de polarização, as pessoas vão acreditar naquilo que vai confirmar a visão delas e com essas pessoas é muito mais difícil falar de letramento. Há também um grupo de pessoas que está sendo apenas confundido pela desinformação (em inglês, neste caso, pela misinformation, onde não há intenção de propagar um conhecimento falso). Para estudar desinformação hoje temos que ir além, o letramento não deve se restringir às fontes, mas sobretudo um letramento sobre como essas tecnologias são produzidas. Como pesquisadores, nós devemos incluir o “não humano” na nossa pesquisa, para justamente entender como essas tecnologias funcionam.

Veridiana: Você mencionou a questão da polarização e desinformação, como você enxerga a disseminação dos discursos de ódio? Fernanda Rosa: As plataformas funcionam a partir dos cliques. A pesquisadora brasileira Yaso Cordoba fez um estudo que mostra que, durante as eleições, havia uma predileção da audiência em entrar, por exemplo, vídeos que continham posições extremas. Se o que clica-se mais é violência ou discursos de ódio, o algoritmo aprende muito rápido que é esse o conteúdo que deve ser replicado. A plataforma não tem uma moral. Ela não foi produzida para ter moral, ela até poderia ser produzida para tal, mas não é. Como reguladores ou produtores de políticas de públicas, nós temos que nos perguntar isso. A orientação primária das plataformas digitais é de acumulação e lucro. Na vida offline, temos mecanismos para evitar isso: temos moral, ética, respeito pelo outro. As plataformas são baseadas em valores de mercado que acabam intensificando a disseminação de discursos de ódio. Essa discussão sobre disseminação de discursos de ódio está na base das discussões sobre regulação de big tech e de plataformas digitais.

Veridiana: A gente está sempre mencionando a necessidade de regulação, entretanto, os processos e discussões jurídicas são sempre muito mais lentas do que o avanço e desenvolvimento da tecnologia. Como você vê essa questão de forma pragmática?

Fernanda Rosa: Se pensarmos no marco civil da internet, ele foi aprovado em 2014. E agora ele já não é mais suficiente, porque os atores já não são mais os mesmos. É um desafio, porém há como fazer regulação como se fosse uma constituição: quais são os valores que devem estar imbricados nas tecnologias que vamos usar. Por exemplo, o Comitê Gestor da Internet no Brasil tem dez princípios que foram formulados há décadas atrás. E quando lemos esses princípios, eles continuam fazendo sentido. Eu acrescentaria outros, mas não excluiria os que estão lá. A questão de princípios é fundamental. O próximo passo é pensar quais são as instituições que irão implementar isso. Precisamos de um novo órgão para fazer isso ou usaremos os já existentes? Tenho a opinião que precisamos de um novo órgão para formar um novo pessoal que consiga fazer a análise dessas tecnologias que estão chegando. Claro, há grupos que acham que o mercado deve se regular por si próprio, mas nós não pensamos assim quando falamos de saúde. A gente sempre considera que precisamos de um órgão regulador, como a ANS. Por que no campo da tecnologia prescindiríamos de um órgão assim? E não é um órgão para censurar, mas para garantir que a sociedade vai continuar se desenvolvendo na direção que queremos, de acordo com os princípios previamente estabelecidos. Tem que haver uma constituição que estabeleça os princípios que nós queremos seguir e a partir dela, construímos instituições e processos que garantam isso. Não é simples, ninguém conseguiu fazer ainda. A Europa, entretanto, está mais avançada nisso: conseguiu garantir uma lei eficaz para trabalharmos com dados pessoais. Acho que devemos seguir a mesma lógica para trabalhar com inteligência artificial.