Os custos socioambientais da Inteligência Artificial

Por Juliane Helanski

Em estudo recente produzido pelo coletivo de programadores “Estampa”, intitulado “Cartography of generative AÍ” (Cartografia da IA generativa) analisou a infraestrutura e os recursos necessários para desenvolver sistemas de inteligência artificial (IA) em grande escala, que demandam acesso à computação avançada, vastos conjuntos de dados e profissionais qualificados. O ciclo de vida dos sistemas de IA, abrangendo desde a extração de matérias-primas até o descarte de resíduos eletrônicos, demanda uma enorme exploração de recursos naturais e mão de obra. Esses custos ambientais são frequentemente ocultados pela indústria de tecnologia (Crawford, 2021). 

Crawford e Joler (2018) criaram um mapa detalhado da infraestrutura por trás de sistemas de IA como o Amazon Echo, destacando as complexas cadeias de fornecimento e o trabalho humano envolvidos em sua produção e operação. [1] Crawford e Joler (2018) mostram como o Amazon Echo, um alto-falante inteligente controlado por voz, representa a tendência de incorporar automação inteligente em dispositivos do cotidiano, e como esse mapa pode ser uma ferramenta para entender outros sistemas de IA. O mapa também ilustra o ciclo de vida do Amazon Echo, desde a extração das matérias-primas até sua montagem, distribuição e uso, enfatizando a exploração de recursos naturais e humanos durante todo esse processo. Além disso, aborda a crescente quantificação e comercialização de emoções, comportamentos e dados biológicos humanos para treinar sistemas de IA, levantando questões sobre privacidade e implicações éticas. Esse trabalho foi publicado antes da chegada de grandes modelos de linguagem como o Chat GPT em 2022, mas já destacava a importância de visualizar esses processos para compreender melhor e possivelmente agir sobre os impactos da IA. 

Joler e Pasquinelli (2021) desenvolveram o Nooscop[2], um mapa conceitual que revela as limitações da IA ao comparar o fluxo de informações no aprendizado de máquina. O estudo recente de Pasquinelli (2024) introduz outro mapa conceitual da IA generativa, abordando temas como automação de tarefas criativas, privacidade, autoria, terceirização de micro tarefas, consumo de energia e água em data centers, e sustentabilidade na produção de componentes de servidores. 

Os mapas destacam como a infraestrutura influencia a criação de IA, quem lucra e molda o poder da indústria. A alta demanda por computação é impactada pelas políticas governamentais, beneficiando grandes empresas em países como os EUA.[3] Contudo, a falta e o alto custo para a manutenção de data centers ( centro de processamento de dados), dedicados à inteligência artificial, é um desafio, mesmo para esses gigantes. Modelos de IA de linguagem em grande escala (LLMS), máquinas projetadas para compreender e gerar textos, demandam cerca de 100 vezes mais poder computacional que outros modelos, com custos que podem superar o PIB dos EUA até 2037. Treinar IA como o GPT-3 pode custar $ 4,6 milhões, enquanto o GPT-4 pode chegar a $ 50 milhões, com custos totais excedendo $100 milhões devido a processos de tentativa e erro (Vipra e West, 2023).

Kak e West (2023) lançaram um relatório sobre o crescente domínio e concentração de poder das gigantes da tecnologia, especialmente durante a pandemia, quando governos e setores industriais se tornaram cada vez mais dependentes de suas infraestruturas. Kak e West (2023) destacam a necessidade de regulamentação para abordar os possíveis danos e responsabilidades das tecnologias de IA e da Big Tech, promovendo intervenções políticas que limitem o poder dessas empresas e garantam que a IA sirva ao interesse público, não apenas aos interesses industriais. 

A coletânea de ensaios organizada por Kak (2024) ilustra várias estratégias globais de investimento, regulamentação e governança para melhorar as capacidades nacionais de IA. Destaca como governos frequentemente testam políticas de IA sem uma visão coerente, usando ferramentas como investimentos diretos, créditos fiscais e parcerias público-privadas. A coletânea também explora as implicações geopolíticas da IA, com países almejando liderar o setor como parte de suas estratégias econômicas e de segurança nacional. Kak e West (2024) discutem a crescente necessidade de um escrutínio regulatório maior antes da IA ser lançada no mercado, destacando a imprescindibilidade de padrões para estabilizar a indústria. Eles comparam a regulamentação da IA ao papel do FDA na indústria farmacêutica, enfatizando a importância de avaliar segurança e eficácia. O relatório sugere que a regulamentação da IA deve focar em benefícios sociais, não apenas em lucros, e exigir dos desenvolvedores uma explicação clara sobre o funcionamento e vantagens de seus sistemas. 

Os custos elevados da IA não são apenas monetários, mas também ambientais e sociais. É fundamental investigar a infraestrutura da IA focando nas matérias-primas e recursos naturais usados na produção de supercomputadores e nas atividades dos usuários, que exigem grande poder computacional. A computação em larga escala tem um impacto ambiental negativo, especialmente na operação de data centers que consomem grandes quantidades de energia e água para resfriar o calor gerado pela infraestrutura. 

O setor de tecnologia tem uma contribuição significativa para as mudanças climáticas, com data centers sendo grandes responsáveis pelas emissões de gases de efeito estufa, comparáveis ao setor de aviação (Dobbe e Whittaker, 2019). A adoção dos LLMs em tecnologias como motores de busca pode aumentar consideravelmente as emissões de carbono, agravando os problemas climáticos. Novas legislações e estruturas estão sendo elaboradas para enfrentar os riscos ambientais e sociais da IA, impulsionadas pela demanda por práticas de aprendizado de máquinas mais sustentáveis, incluindo a análise do ciclo de vida e a consideração das pegadas de carbono e água (Anson et. al., 2022). 

Isso significa que cada texto ou imagem gerada por AI tem um alto custo social e ambiental ocultado por relações econômicas e políticas. Talvez seja hora de reconsiderarmos quanto poder computacional e quais tecnologias realmente precisamos. A terra agora não é apenas um recurso a ser explorado, mas um agente que influencia a vida pública. Conforme Latour (2020), há um conflito entre entender a Terra como entidade passiva ou ativa. Alianças políticas com a natureza, vista tradicionalmente como externa à sociedade, são desafiadoras. A natureza, incluindo a Terra, é participante na dinâmica política e social. Reconhecer a Terra como agente político pode influenciar decisões políticas, revelando novas dimensões das lutas políticas e destacando a necessidade de novas estruturas sociais e de conhecimento que integrem essa perspectiva. 

Em suma, enquanto a IA promete avanços e eficiências significativas, é crucial considerar e abordar os seus custos socioambientais. A regulamentação rigorosa, o escrutínio contínuo e a busca por práticas tecnológicas mais sustentáveis são indispensáveis para garantir que a IA não exacerba desigualdades ou danos ecológicos. Apenas por meio de uma compreensão holística e responsável do impacto da IA podemos orientar seu desenvolvimento para beneficiar verdadeiramente a sociedade e o planeta. 

Notas

 [1] O texto foi traduzido para a língua portuguesa brasileira por Cristiana de Oliveira Gonzalez e Pedro Ferreira na Revista Eletrônica de Jornalismo Científico, ComCiência, disponível em Anatomia de um sistema de inteligência artificial - (comciencia.br).

[2] Sobre a demanda energética, veja também a nota crítica de João Ricardo Penteado, “Bits por Megawatts : como a IA está impactando a demanda energética no mundo”, disponível em Bits por Megawatts : como a IA está impactando a demanda energética no mundo – Understanding Artificial Inteligence (usp.br);.

[3] Uma faceta dessa dinâmica foi apresentada por João Ricardo Penteado na nota crítica “Como os EUA têm usado os chips para estrangular o desenvolvimento da IA na China”, disponível em Como os EUA têm usado os chips para estrangular o desenvolvimento da IA na China – Understanding Artificial Inteligence (usp.br).

Referências 

Estampa, A. (2024, maio). Cartography of generative AI. https://cartography-of-generative-ai.net/

Kak, A., & West, S. M. (2023, 11 de abril). AI Now 2023 Landscape: Confronting Tech Power. AI Now Institute. https://ainowinstitute.org/2023-landscape

Anson, A., et al. (2022, 10 de janeiro). Water Justice and Technology: The COVID-19 Crisis, Computational Resource Control, and Water Relief Policy. AI Now Institute. https://ainowinstitute.org/publication/water-justice-and-technology-report

Crawford, K., & Joler, V. (2018, 7 de setembro). Anatomy of an AI System: The Amazon Echo as an Anatomical Map of Human Labor, Data and Planetary Resources. AI Now Institute e Share Lab. https://anatomyof.ai

Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Dobbe, R., & Whittaker, M. (2019, 17 de outubro). AI and Climate Change: How they’re connected, and what we can do about it. AI Now Institute. https://ainowinstitute.org/publication/ai-and-climate-change-how-theyre-connected-and-what-we-can-do-about-it

Kak, A., & West, S. M. (2024, 12 de março). AI Nationalism(s): Global Industrial Policy Approaches to AI. AI Now Institute. https://ainowinstitute.org/ai-nationalisms

Kak, A., & West, S. M. (2024, agosto). Lessons from the FDA for AI. AI Now Institute. https://ainowinstitute.org/lessons-from-the-fda-for-ai

Latour, B. (2020). Onde aterrara. Bazar do Tempo.

Pasquinelli, M., & Joler, V. (2021). The Nooscope manifested: AI as instrument of knowledge extractivism. AI & Society, 36(4), 1263–1280. https://doi.org/10.1007/s00146-020-01097-6

Vipra, J., & West, S. M. (2023, 27 de setembro). Computational power and AI. AI Now Institute. https://ainowinstitute.org/publication/policy/compute-and-ai