O Pentágono pressionou empresas de IA antes dos ataques ao Irã – uma notícia preocupante para o futuro da “IA ética”. / The Pentagon strongarmed AI firms before Iran strikes – in dark news for the future of ‘ethical AI’
Artigo da professora de relações internacionais Bianca Baggiarini, da Universidade Deakin, discute uso ético da IA em guerras, a partir da relação tensa entre o Pentágono e a Anthropic (Claude) à véspera do ataque ao Irã. A Anthropic queria garantias de que seus sistemas não seriam usados para vigilância interna ou armas autônomas em confrontos externos. Foi substituída pela Open AI, que segundo, o artigo permitiria uso nos "termos legais", aparentemente sem definir "limites éticos". "O que isso significa para a IA militar? Será o fim da ideia de "IA ética" na guerra?", elabora a acadêmica, incluindo o risco da IA "em um mundo sem normas democráticas".
Acesse em: The Conversation
