How humans can navigate the AI ‘empathy’ trap / Como humanos podem escapar da armadilha da “empatia” da IA

Se a tecnologia redefine o significado da nossa linguagem, também pode mudar a forma como nos percebemos. Modelos de linguagem de grande escala (LLMs, como ChatGPT, Gemini, Claude e outros) superaram humanos em testes de inteligência emocional — 81% de acurácia contra 56% da média humana. Mas a colunista Sarah O'Connor, do Financial Times, alerta: simular empatia não é senti-la. "Ser empático significa colocar-se no lugar do outro. LLMs não sentem, não podem sentir. O que fazem bem é ler emoções em texto e escrever de modo que pareça empático", explica. O risco, segundo ela, é permitir que a palavra "empatia" mude silenciosamente de significado. O crítico cultural Neil Postman já advertia: "As palavras antigas ainda parecem as mesmas, ainda são usadas nas mesmas frases. Mas não têm os mesmos significados; em alguns casos, têm significados opostos." O que é realmente perigoso, acrescentou ele, é que quando a tecnologia redefine palavras com raízes profundas, “ela não para para nos dizer. E nós não paramos para perguntar”. O risco maior: chamar máquinas de "empáticas" pode servir de justificativa para deixar idosos solitários conversando com chatbots em vez de garantir companhia humana.

Acesse em: Financial Times