Os custos socioambientais da Inteligência Artificial

Juliane Helanski

15 minutos

Por Juliane Helanski

Em estudo recente produzido pelo coletivo de programadores “Estampa”, intitulado “Cartography of generative AÍ” (Cartografia da IA generativa) analisou a infraestrutura e os recursos necessários para desenvolver sistemas de inteligência artificial (IA) em grande escala, que demandam acesso à computação avançada, vastos conjuntos de dados e profissionais qualificados. O ciclo de vida dos sistemas de IA, abrangendo desde a extração de matérias-primas até o descarte de resíduos eletrônicos, demanda uma enorme exploração de recursos naturais e mão de obra. Esses custos ambientais são frequentemente ocultados pela indústria de tecnologia (Crawford, 2021). 

Crawford e Joler (2018) criaram um mapa detalhado da infraestrutura por trás de sistemas de IA como o Amazon Echo, destacando as complexas cadeias de fornecimento e o trabalho humano envolvidos em sua produção e operação. [1] Crawford e Joler (2018) mostram como o Amazon Echo, um alto-falante inteligente controlado por voz, representa a tendência de incorporar automação inteligente em dispositivos do cotidiano, e como esse mapa pode ser uma ferramenta para entender outros sistemas de IA. O mapa também ilustra o ciclo de vida do Amazon Echo, desde a extração das matérias-primas até sua montagem, distribuição e uso, enfatizando a exploração de recursos naturais e humanos durante todo esse processo. Além disso, aborda a crescente quantificação e comercialização de emoções, comportamentos e dados biológicos humanos para treinar sistemas de IA, levantando questões sobre privacidade e implicações éticas. Esse trabalho foi publicado antes da chegada de grandes modelos de linguagem como o Chat GPT em 2022, mas já destacava a importância de visualizar esses processos para compreender melhor e possivelmente agir sobre os impactos da IA. 

Joler e Pasquinelli (2021) desenvolveram o Nooscop[2], um mapa conceitual que revela as limitações da IA ao comparar o fluxo de informações no aprendizado de máquina. O estudo recente de Pasquinelli (2024) introduz outro mapa conceitual da IA generativa, abordando temas como automação de tarefas criativas, privacidade, autoria, terceirização de micro tarefas, consumo de energia e água em data centers, e sustentabilidade na produção de componentes de servidores. 

Os mapas destacam como a infraestrutura influencia a criação de IA, quem lucra e molda o poder da indústria. A alta demanda por computação é impactada pelas políticas governamentais, beneficiando grandes empresas em países como os EUA.[3] Contudo, a falta e o alto custo para a manutenção de data centers ( centro de processamento de dados), dedicados à inteligência artificial, é um desafio, mesmo para esses gigantes. Modelos de IA de linguagem em grande escala (LLMS), máquinas projetadas para compreender e gerar textos, demandam cerca de 100 vezes mais poder computacional que outros modelos, com custos que podem superar o PIB dos EUA até 2037. Treinar IA como o GPT-3 pode custar $ 4,6 milhões, enquanto o GPT-4 pode chegar a $ 50 milhões, com custos totais excedendo $100 milhões devido a processos de tentativa e erro (Vipra e West, 2023).

Kak e West (2023) lançaram um relatório sobre o crescente domínio e concentração de poder das gigantes da tecnologia, especialmente durante a pandemia, quando governos e setores industriais se tornaram cada vez mais dependentes de suas infraestruturas. Kak e West (2023) destacam a necessidade de regulamentação para abordar os possíveis danos e responsabilidades das tecnologias de IA e da Big Tech, promovendo intervenções políticas que limitem o poder dessas empresas e garantam que a IA sirva ao interesse público, não apenas aos interesses industriais. 

A coletânea de ensaios organizada por Kak (2024) ilustra várias estratégias globais de investimento, regulamentação e governança para melhorar as capacidades nacionais de IA. Destaca como governos frequentemente testam políticas de IA sem uma visão coerente, usando ferramentas como investimentos diretos, créditos fiscais e parcerias público-privadas. A coletânea também explora as implicações geopolíticas da IA, com países almejando liderar o setor como parte de suas estratégias econômicas e de segurança nacional. Kak e West (2024) discutem a crescente necessidade de um escrutínio regulatório maior antes da IA ser lançada no mercado, destacando a imprescindibilidade de padrões para estabilizar a indústria. Eles comparam a regulamentação da IA ao papel do FDA na indústria farmacêutica, enfatizando a importância de avaliar segurança e eficácia. O relatório sugere que a regulamentação da IA deve focar em benefícios sociais, não apenas em lucros, e exigir dos desenvolvedores uma explicação clara sobre o funcionamento e vantagens de seus sistemas. 

Os custos elevados da IA não são apenas monetários, mas também ambientais e sociais. É fundamental investigar a infraestrutura da IA focando nas matérias-primas e recursos naturais usados na produção de supercomputadores e nas atividades dos usuários, que exigem grande poder computacional. A computação em larga escala tem um impacto ambiental negativo, especialmente na operação de data centers que consomem grandes quantidades de energia e água para resfriar o calor gerado pela infraestrutura. 

O setor de tecnologia tem uma contribuição significativa para as mudanças climáticas, com data centers sendo grandes responsáveis pelas emissões de gases de efeito estufa, comparáveis ao setor de aviação (Dobbe e Whittaker, 2019). A adoção dos LLMs em tecnologias como motores de busca pode aumentar consideravelmente as emissões de carbono, agravando os problemas climáticos. Novas legislações e estruturas estão sendo elaboradas para enfrentar os riscos ambientais e sociais da IA, impulsionadas pela demanda por práticas de aprendizado de máquinas mais sustentáveis, incluindo a análise do ciclo de vida e a consideração das pegadas de carbono e água (Anson et. al., 2022). 

Isso significa que cada texto ou imagem gerada por AI tem um alto custo social e ambiental ocultado por relações econômicas e políticas. Talvez seja hora de reconsiderarmos quanto poder computacional e quais tecnologias realmente precisamos. A terra agora não é apenas um recurso a ser explorado, mas um agente que influencia a vida pública. Conforme Latour (2020), há um conflito entre entender a Terra como entidade passiva ou ativa. Alianças políticas com a natureza, vista tradicionalmente como externa à sociedade, são desafiadoras. A natureza, incluindo a Terra, é participante na dinâmica política e social. Reconhecer a Terra como agente político pode influenciar decisões políticas, revelando novas dimensões das lutas políticas e destacando a necessidade de novas estruturas sociais e de conhecimento que integrem essa perspectiva. 

Em suma, enquanto a IA promete avanços e eficiências significativas, é crucial considerar e abordar os seus custos socioambientais. A regulamentação rigorosa, o escrutínio contínuo e a busca por práticas tecnológicas mais sustentáveis são indispensáveis para garantir que a IA não exacerba desigualdades ou danos ecológicos. Apenas por meio de uma compreensão holística e responsável do impacto da IA podemos orientar seu desenvolvimento para beneficiar verdadeiramente a sociedade e o planeta. 

Notas

 [1] O texto foi traduzido para a língua portuguesa brasileira por Cristiana de Oliveira Gonzalez e Pedro Ferreira na Revista Eletrônica de Jornalismo Científico, ComCiência, disponível em Anatomia de um sistema de inteligência artificial – (comciencia.br).

[2] Sobre a demanda energética, veja também a nota crítica de João Ricardo Penteado, “Bits por Megawatts : como a IA está impactando a demanda energética no mundo”, disponível em Bits por Megawatts : como a IA está impactando a demanda energética no mundo – Understanding Artificial Inteligence (usp.br);.

[3] Uma faceta dessa dinâmica foi apresentada por João Ricardo Penteado na nota crítica “Como os EUA têm usado os chips para estrangular o desenvolvimento da IA na China”, disponível em Como os EUA têm usado os chips para estrangular o desenvolvimento da IA na China – Understanding Artificial Inteligence (usp.br).

Referências 

Estampa, A. (2024, maio). Cartography of generative AI. https://cartography-of-generative-ai.net/

Kak, A., & West, S. M. (2023, 11 de abril). AI Now 2023 Landscape: Confronting Tech Power. AI Now Institute. https://ainowinstitute.org/2023-landscape

Anson, A., et al. (2022, 10 de janeiro). Water Justice and Technology: The COVID-19 Crisis, Computational Resource Control, and Water Relief Policy. AI Now Institute. https://ainowinstitute.org/publication/water-justice-and-technology-report

Crawford, K., & Joler, V. (2018, 7 de setembro). Anatomy of an AI System: The Amazon Echo as an Anatomical Map of Human Labor, Data and Planetary Resources. AI Now Institute e Share Lab. https://anatomyof.ai

Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Dobbe, R., & Whittaker, M. (2019, 17 de outubro). AI and Climate Change: How they’re connected, and what we can do about it. AI Now Institute. https://ainowinstitute.org/publication/ai-and-climate-change-how-theyre-connected-and-what-we-can-do-about-it

Kak, A., & West, S. M. (2024, 12 de março). AI Nationalism(s): Global Industrial Policy Approaches to AI. AI Now Institute. https://ainowinstitute.org/ai-nationalisms

Kak, A., & West, S. M. (2024, agosto). Lessons from the FDA for AI. AI Now Institute. https://ainowinstitute.org/lessons-from-the-fda-for-ai

Latour, B. (2020). Onde aterrara. Bazar do Tempo.

Pasquinelli, M., & Joler, V. (2021). The Nooscope manifested: AI as instrument of knowledge extractivism. AI & Society, 36(4), 1263–1280. https://doi.org/10.1007/s00146-020-01097-6

Vipra, J., & West, S. M. (2023, 27 de setembro). Computational power and AI. AI Now Institute. https://ainowinstitute.org/publication/policy/compute-and-ai

Compartilhe em suas redes