A produção de conteúdo sobre IAs generativas colocada em números

Essa nota foi composta originalmente para o UAI em português no dia 26 de novembro de 2025, a partir de pesquisas anteriores.

Entre 2022 e 2024 pôde ser percebido um aumento no volume de conteúdo veiculado nas redes sociais a respeito de inteligências artificiais (IA) generativas. Desse cenário surgem algumas possibilidades de análises, inclusive focando nas informações e no discurso sustentado nesses conteúdos.

Foi realizada uma análise quantitativa de cinco mil (5000) postagens publicamente disponíveis nas redes sociais Instagram e Tiktok, por sua popularidade com o público geral e não necessariamente o profissional ou acadêmico. Esses conteúdos foram identificados através das hashtags “#inteligenciaartificial”, “#tecnologia” e “#chatgpt”, reunidos e analisados com o apoio de algoritmos próprios de processamento de linguagem natural (para tratar os textos coletados, identificar a presença de termos específicos e comparar os textos entre si e com postagens e documentos oficiais) e com supervisão humana sobre os seus resultados (para validar e garantir uma maior robustez na análise). Os dados foram coletados na primeira quinzena de 2025, mas sem distinção quanto às datas das postagens, considerando apenas posts que falassem sobre alguma tecnologia de inteligência artificial generativa.

Os conteúdos das postagens foram avaliados dentro de quatro dimensões analíticas, definidas como a seguir, com fundamento nas quatro dimensões historiográficas de desenvolvimento das inteligências artificiais (Nunes, 2023):

- Profundidade: quanto a postagem traz alguma reflexão ou complemento sobre a tecnologia (com o valor 1 nesse caso) ou apenas repetem a divulgação oficial da inteligência artificial por seus respectivos fornecedores (com o valor 0 nesse caso), como OpenAI, Google e Meta; para essa avaliação foi necessário, por definição, um levantamento das divulgações das tecnologias por seus fornecedores; essa dimensão aponta para complementações da comunicação e sua decorrente transformação ao longo de múltiplas iterações realizadas, e está relacionada principalmente à dimensão historiográfica de Culturas & Públicos, que se refere ao domínio público psicossocial sobre as IAs, ou seja, ao que pensam e querem das IAs as pessoas em geral, irrestritas a um recorte sociodemográfico específico;

- Fidedignidade: o quanto a postagem apresenta informações fiéis ao que a tecnologia mencionada de fato faz, independentemente do nível de detalhes incluídos (valendo 1 nesse caso), ou apresenta alguma informação falsa ou distorcida sobre o que a tecnologia faz (valendo 0 nesse caso); para essa avaliação foi reutilizado o levantamento de divulgações mencionado no item anterior; essa dimensão analítica se relaciona à dimensão historiográfica das Ciências & Alquimia, pois diz respeito a um entendimento científico ou tecnológico, em alguma medida, sobre como as tecnologias operam ou como podem ser corretamente utilizadas para o cumprimento de um objetivo; comunicações que transmitem informações como estas corretamente podem requerer esse conhecimento científico tecnológico, que viabilize uma noção crítica sobre a capacidade da tecnologia, ou requerer que a pessoa comunicadora se restrinja às informações já anteriormente divulgadas sobre a tecnologia, ou seja, não apresentando profundidade, a dimensão analítica anterior;

- Segurança: o quanto a postagem traz reflexões ou apontamentos a respeito dos possíveis impactos daquela tecnologia sobre a segurança e o bem-estar humano (valendo 1 nesse caso) ou não (valendo 0 nesse caso); essa dimensão está associada à dimensão historiográfica dos Governos, pois o debate e o avanço da segurança no uso de inteligências artificiais foi historicamente impulsionado pela participação de órgãos governamentais, então uma narrativa hoje existente que envolve as questões de segurança nessas utilizações de tecnologia está antecedida - e talvez até amparada ou motivada - justamente por tal influência para o uso seguro de IA; mais ainda, a dimensão governamental é exatamente aquela que respalda a materialização do uso seguro de tecnologia através das regulações e legislações associadas, ou seja, é nela que deságuam essas comunicações e narrativas sobre segurança;

- Aplicabilidade: o quanto a postagem traz sugestões sobre situações reais onde a referida tecnologia poderia contribuir para uma solução (valendo 1 nesse caso) ou não (valendo 0 nesse caso); como muitas das aplicações de IA são pensadas para contextos de realização de trabalhos, essa dimensão analítica se relaciona à dimensão historiográfica das Empresas, cuja influência na história das IAs incentivou o desenvolvimento de tecnologias cujas aplicações trariam ganhos de produtividade e lucratividade; essa dimensão historiográfica é a que está por trás dos grandes investimentos por parte de empresas no desenvolvimento dessas tecnologias e, por extensão, da sua atual disponibilização ao público; de modo similar, então, à dimensão da segurança, é na dimensão empresarial, do ganho financeiro, que muitas vezes deságuam as ideias sobre para que IAs generativas poderiam ser aplicadas; a relação aqui, porém, em contraste à relação anterior, possui a nuance de que IAs generativas podem ter uma aplicabilidade aos processos artísticos muito maior do que outras formas de IA até então apresentavam, ou seja, há mais espaço para se pensarem utilizações de IAs generativas cuja finalidade seja a arte e não o lucro.

Por segurança e privacidade, foram armazenadas em base de dados ao final apenas as avaliações das postagens dentro dessas quatro dimensões e não os conteúdos das postagens que, embora publicamente disponíveis de modo que podem ser acessadas e analisadas, são autorais, potencialmente pessoais e protegidas legalmente como tais.

Com apoio dos resultados da análise quantitativa é também viável, como será visto na sequência, uma análise qualitativa crítica sobre esse cenário discutido.

Em números gerais, as dimensões apresentam as seguintes distribuições:

De modo complementar, cabe avaliar a existência de possíveis interações entre as dimensões, o que é possível por meio de suas distribuições condicionais, ou seja, suas distribuições de acordo com cada valor fixado de outra dimensão. Ao se fixarem cada uma das quatro, temos os seguintes resultados.

Na Tabela 2 vemos que quando ocorre um aprofundamento na comunicação, a fidedignidade e a aplicabilidade caem, ou seja, em geral informações incorretas são adicionadas havendo menor discussão sobre as aplicações possíveis da tecnologia. Há algo a mais sendo dito, mas não necessariamente com precisão.

Por outro lado, comentários sobre a segurança em torno da tecnologia só aparecem quando a pessoa comunicando adiciona essa perspectiva, pois ela não aparece originalmente na divulgação da tecnologia.

Segundo essa Tabela 3 quando os conteúdos mantém a fidedignidade, a única outra dimensão que aparece com maior frequência é a aplicabilidade. A fidedignidade só é perdida quando há novas informações sendo adicionadas, ou seja, quando há profundidade, e simultaneamente se não há profundidade há fidedignidade sendo mantida, então pelo menos uma das dimensões sempre é respeitada, resultante do modo como foram definidas. Infelizmente os conteúdos que abordam a segurança da tecnologia são mais frequentes quando a fidedignidade é perdida. Em outras palavras, a preocupação com o tema aparece mais frequentemente acompanhada de informações incorretas sobre as referidas tecnologias.

Por último, as Tabelas 4 e 5 reforçam resultados anteriores, como as relações positivas entre a segurança e a profundidade e entre a aplicabilidade e a fidedignidade, mas também apontam para uma inversão entre a segurança e a aplicabilidade. Há 332 postagens em que ambas são positivas e 2725 em que apenas uma delas é discutida. Com isso, há a indicação de uma oposição entre esses dois aprofundamentos, em geral com as postagens tendendo a dar maior foco a uma das discussões em detrimento da outra.

Após a análise quantitativa, podemos afirmar que a influência da comunicação dos fornecedores de IA nem sempre coincide com as discussões relacionadas ao tema no TikTok e no Instagram. O objetivo desta análise vai além de destacar essa discrepância; visa também mensurar o grau em que ela se manifesta nas redes selecionadas. Portanto, a escolha das variáveis (Profundidade, Fidedignidade, Segurança, Aplicabilidade) é justificada pela suposição prévia de que o conteúdo produzido nas redes sociais sobre inteligência artificial difere da utilidade real da IA, e que as discussões sobre o tema são influenciadas pela concepção geral de IA no imaginário social.

Em relação a essa concepção imaginária de IA, é notável que, apesar da recente expansão da ferramenta nas empresas e na vida social, o conceito em si já foi amplamente elaborado na ficção. Nunes (2023), por exemplo, sugere que o mito judaico do Golem, um ser humanóide gerado a partir do barro e que recebe vida a fim de cumprir uma função, pode ser considerado uma representação antiga de inteligência artificial. Atualmente, tanto na literatura quanto no cinema de ficção científica, encontramos frequentes explorações que ora constroem uma representação distópica da IA, como ocorre em "2001, Uma Odisseia no Espaço" de Stanley Kubrick e nos romances cyberpunk de William Gibson, ora apresentam a IA como uma solução utópica para um futuro próximo, como é o caso do computador da Enterprise em Star Trek e da personagem Samantha no filme "Her" de Spike Jonze.

Historicamente, ao examinar as produções culturais de ficção científica, é notável que o imaginário em torno da tecnologia muitas vezes se constrói como uma antecipação imaginativa do futuro. Os temores e esperanças em relação ao que está por vir se entrelaçam com o que está disponível como tecnologia na atualidade. Esse fenômeno, que parece ser uma característica predominante nas produções de conteúdo sobre IA, surge como uma resposta aos problemas sociais enfrentados na sociedade contemporânea e, de acordo com Bezerra (2023), pode ser interpretado à luz da descrição freudiana do uso da técnica como uma forma de lidar com o mal-estar experimentado na vida cotidiana.

O imaginário mistificador das IAs tende a alienar as pessoas dos processos sócio- históricos a respeito da criação e a utilização dessas tecnologias, que, em última instância, são de nossa responsabilidade. A fixação neurótica no uso de uma tecnologia cuja compreensão é falha para a maioria das pessoas as aprisiona em um ciclo vicioso que tende a repetir os padrões reducionistas a respeito da complexidade das IAs e as consequências do seu uso irrefletido. O potencial e os limites dessas tecnologias ficam ofuscados em meio às repetições e desinformações sobre o tema, com potencial aumento de ficarmos subordinados à uma tecnologia sem o devido conhecimento de como o seu uso afeta as relações humanas a respeito da produção humana, seja nos âmbitos da arte ou do trabalho (Marcuse, 2001).

A construção do imaginário em torno da inteligência artificial apresenta um desafio considerável para desmistificar sua aplicação real. Reconhecer a constante evolução da IA, fundamentada em programação computacional e princípios científicos complexos, é o primeiro passo. Divulgar informações precisas e acessíveis sobre seu funcionamento é crucial, incumbindo às organizações, os acadêmicos e profissionais da área esta responsabilidade. Estimular a educação e alfabetização digital é igualmente crucial. À medida que a IA ganha destaque em nossa sociedade, manter um diálogo aberto, democrático e contínuo sobre suas implicações éticas torna-se fundamental. A colaboração entre especialistas, legisladores e o público em geral se faz urgente para construirmos o futuro da IA de maneira benéfica para a humanidade, em especial com vista aos interesses públicos. Desmistificar a utilização da IA é um desafio que requer esforços coordenados de diversos setores, mas é um passo fundamental para assegurar sua compreensão, aceitação e uso responsável.

Referências

BEZERRA, André (2023). O Mal-Estar Tecnológico: uma reflexão psicanalítica sobre os gadgets. São Paulo: Dialética.

MARCUSE, Herbert (2001). Algumas implicações sociais da tecnologia moderna. Em Tecnologia, guerra e fascismo. São Paulo: Editora UNESP. (Trabalho original publicado em 1941).

NUNES, Luiz J. (2023). Artifício: Um estudo introdutório dos aspectos psicossociais da artificialização das inteligências. São Paulo: Dialética.