Os riscos da IA Generativa para o problema da desinformação

Foi-se o tempo em que as principais preocupações com os avanços no campo da inteligência artificial (IA) se restringiam às possibilidades de desemprego em massa e ao fim da supremacia humana na Terra. Os acontecimentos da década de 2010 mostraram que a tecnologia disruptiva do momento também pode servir para agravar um problema mais contemporâneo: a desinformação.

Não à toa, no dia 21 de julho de 2023, executivos de sete corporações que lideram o desenvolvimento da IA Generativa (1) nos EUA – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – se reuniram com o presidente Joe Biden para comunicar a adoção de medidas autorregulatórias relativas à questão [Sheak, Kang & Sanger, 2023]. Entre as medidas, a concordância em envolver especialistas externos para inspecionar aplicativos de IA em fase de concepção, e a introdução compulsória de marcas d’água em conteúdo gerado por esses aplicativos.

A iniciativa na Casa Branca reverbera o trauma que perdura em governos e sociedade civil de países ocidentais desde a década passada, quando foram pegos de surpresa pela ascensão de lideranças e movimentos antissistema, catapultados à popularidade, entre outras coisas, pelo uso pioneiro de técnicas até então inéditas de desinformação. Agora, com a disseminação de aplicativos de IA Generativa – tais quais ChatGPT e Dall-E-2 –, e com as ilusões em torno da internet como nova ágora completamente pulverizadas (2), a intenção é prevenir novos esgarçamentos do tecido social causado pela soma IA+desinformação ou ao menos suavizar tensões.

O foco mais evidente de preocupação diz respeito ao fenômeno das notícias falsas, ou fake news, que subsistem mediante processos já largamente automatizados, como o uso de robôs e a microssegmentação de audiência para o disparo de mensagens. Embora as grandes plataformas digitais já venham adotando medidas para coibir sua proliferação, e mesmo Estados venham se movimentando para criar restrições legais à prática – como sinaliza o projeto de lei n° 2639/2020, também conhecido como “PL das Fake News”, no Brasil (Brasil 2020) –, o atual cenário tecnológico, político e cultural mais do que justifica receios em relação ao emprego de novas técnicas de IA nesse terreno. É só pensarmos que os avanços no ramo de Processamento de Linguagem Natural, que subjaz uma das vertentes de aplicativos de IA Generativa, podem “humanizar” ainda mais robôs conversacionais dedicados a espalhar notícias falsas por meio da interação com pessoas reais.

Os vídeos falsos, ou deepfakes, que também se valem de técnicas de IA Generativa, constituem outra ameaça visível no radar, não obstante não terem, ao menos por ora, proporcionado a mesma escala de desinformação que as notícias falsas. Contudo, a disponibilidade de uma plêiade de aplicativos capazes de criar vídeos fictícios de ótima qualidade com os rostos de pessoas reais tem motivado receios em torno do uso desses aplicativos para operações de desinformação. A ideia da marca d’água nas imagens, aliás, deriva daí. É preciso salientar, porém, que se por um lado a IA pode ser utilizada para potencializar a desinformação na sociedade, por outro ela também pode ser empregada no enfrentamento do problema. No caso das notícias falsas, diversas empresas e grupos de pesquisa têm se dedicado a desenvolver processos automatizados para removê-las. Ocorre que isso é mais complicado do que parece. Em primeiro lugar, pelo fato de a concepção de modelos algorítmicos voltados para essa tarefa requisitar grandes quantidades de dados, o que pode levar tempo demais se o objetivo é impedir que uma notícia falsa viralize. Somado a esse empecilho, está o sempre iminente risco de que conteúdos legítimos sejam removidos por engano, o que constituiria um novo leque de problemas a ser administrado.

Trocando em miúdos, o fato é que esse processo ainda requer certo nível de trabalho humano, essencialmente para rotular o que é verdade e o que é falso. Apesar de já existirem esforços para desenvolver técnicas não-supervisionadas de remoção de notícias falsas (Gu, 2023), as iniciativas mais auspiciosas se baseiam em técnicas supervisionadas. Uma delas é de autoria de pesquisadores dos EUA que, em 2019, publicaram um artigo descrevendo um modelo algorítmico de remoção de notícias falsas para a qual bastaria uma quantidade mínima de rótulos (Awadallah, 2020). Trata-se de um modelo que poderia, inclusive, ser otimizado em situações mais sensíveis – como no dia de eleições gerais, por exemplo – mediante a atribuição de maior credibilidade a perfis em redes sociais de determinadas fontes – como um grupo específico de profissionais de imprensa –, fazendo com que suas postagens, portanto, funcionassem como rótulos (Villasenor, 2020).

Quanto aos vídeos falsos, o processo de constatação de veracidade é mais trabalhoso, o que faz com que as medidas para lidar com a questão sejam mais limitadas. Uma dessas medidas é a já mencionada introdução da marca d’água. Outra, mais tradicional, é o desenvolvimento contínuo de ferramentas de perícia de vídeos, uma vez que a tendência é que as técnicas de manipulação audiovisual também se aprimorem continuamente. Por fim, uma terceira alternativa, mais exótica, seria popularizar “serviços de autenticação de álibi”, que nada mais fariam que monitorar as ações e deslocamentos de indivíduos durante 100% do tempo, permitindo-os contestar a participação em eventuais vídeos falsos (Kertysova, 2018). Naturalmente, trata-se de uma alternativa que soa pouco factível em termos de adesão.

É por tudo isso que até o momento a maneira mais fácil e eficaz de se combater a desinformação com o uso de inteligência artificial é o desmantelamento de redes de robôs responsáveis por espalhar notícias falsas e conteúdos maliciosos – um processo, aí sim, sujeito a maior automação (Filho, Marrafon,  Medón, 2022). A título de ilustração, dados do Facebook informam que, entre outubro de 2017 e março de 2018, 98,5% de todas as contas falsas removidas da plataforma haviam se dado por meio de processos automatizados [10]. Se, como diria Robert Merton, para toda ação intencional há um efeito não intencional, cabe sobretudo aos Estados, mas também à sociedade civil, não medir esforços a fim de edificar um arcabouço institucional e tecnológico que, senão previna, ao menos atenue possíveis danos sociais causados por avanços no campo da IA Generativa. O problema da desinformação, sem dúvida, desponta como o principal perigo, uma vez que, mais do que massificar mentiras, o que ele pode fazer é disseminar a desconfiança generalizada em torno da verdade. De certa forma, já vivemos essa realidade, de maneira que urge que tal anomia institucional seja remediada, jamais agravada.

Notas

(1) Trata-se de todo sistema computacional baseado em inteligência artificial capaz de criar textos, imagens, áudios ou vídeos a partir de requisições feitas em linguagem comum.

(2) “O ciberespaço tornou-se uma ágora eletrônica global em que a diversidade da divergência humana explode numa cacofonia de sotaques.” Cf: CASTELLS, M. A galáxia da internet: reflexões sobre a internet, os negócios e a sociedade. Rio de Janeiro: Zahar, 2003.

Referências

AWADALLAH, H. A. et al. (2020) Leveraging multi-source weak social supervision for early detection of fake news. ArXiv preprint, 3 abr. 2020. Disponível em: https://arxiv.org/abs/2004.01732. Acesso em: 14 set. 2023.

BRASIL. Projeto de Lei nº 2639, de 2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944. Acesso em: 14 set. 2023.

GU, R. et al.  (2023). Unsupervised fake news detection on social media: a generative approach. In: Proceedings of the AAAI Conference on Artificial Intelligence, v. 33, julho de 2019. Disponível em: https://www.aaai.org/ojs/index.php/AAAI/article/view/4508. Acesso em: 14 set. 2023.

FILHO, R. N. I.; MARRAFON, M. A.; MEDÓN, F. (2022) A inteligência artificial a serviço da desinformação: como as deepfakes e as redes automatizadas abalam a liberdade de ideias no debate público e a democracia constitucional e deliberativa. In: Economic Analysis of Law Review, v. 13, n. 3, p-32-47, out-dez.

HERN, A; SOLON, O (2018). Facebook closed 583m fake accounts in first three months of 2018. The Guardian, 15 mai. 2018. Disponível em: https://www.theguardian.com/technology/2018/may/15/facebook-closed-583m-fake-accounts-in-first-three-months-of-2018. Acesso: 14 set. 2023.

KERTYSOVA, K. (2018). Artificial intelligence and disinformation. In: Security and Human Rights, v. 29, pp. 55-81.

SHEAR, M. D.; KANG, C; SANGER, D. E. (2023) Pressured by Biden, A.I. companies agree to guardrails on new tools. New York Times, 21 jul. 2023 Disponível em: https://www.nytimes.com/2023/07/21/us/politics/ai-regulation-biden.html. Acesso em: 14 set. 2023.

VILLASENOR, J. (2020). How to deal with AI-enabled disinformation. Brookings, 23 november.