A Inteligência Artificial e a Banalidade do Mal

Por Cláudio A. Amorim

Há alguns meses, circulou na Internet a notícia de que o Chat GPT acusou um professor universitário de assédio sexual. Segundo o site da BBC Brasil (Suzuki, 2023), alguém pediu ao ChatGPT para citar acadêmicos envolvidos em episódios de assédio sexual. O programa respondeu com uma lista, na qual aparecia o conhecido professor de direito estadunidense Jonathan Turley. Segundo consta, “o programa disse que Turley fez comentários sexualmente sugestivos a uma aluna, durante uma viagem ao Alasca, e tentou tocá-la”. Essa grave acusação citava como evidência uma suposta reportagem do jornal The Washington Post, em 2018. O problema é que o professor nunca foi acusado de assédio, a viagem mencionada não aconteceu e a reportagem não existiu.

Tal acontecimento, se protagonizado por uma pessoa, seria prontamente qualificado como mentira e calúnia. Mas, como o protagonista foi um sistema informático, fala-se de “alucinação” – termo usado por especialistas para definir as respostas absurdas dadas, com alguma frequência, pelas inteligências artificiais baseadas em LLMs (Large Language Models, ou Modelos Linguísticos Grandes). Nesse caso, tal como ocorre tantas vezes nos discursos sobre a tecnologia, uma expressão antropomórfica mistifica o objeto e escamoteia as questões que importam. A máquina não alucina: ela se comporta conforme modelos e algoritmos criados e implementados por pessoas, com consequências imprevisíveis. Quanto mais complexos os modelos de aprendizagem de máquina, mais imprevisíveis são as respostas, ou outputs, dos sistemas ditos inteligentes.

Que um gerador automático de textos, por conta própria, acuse um homem de assédio, é um fenômeno assombroso, que deveria nos inquietar. Essa ocorrência e, mais amplamente, vários aspectos da nossa relação com a IA, podem ser analisados usando o poder heurístico da expressão “banalidade do mal” (banality of evil), emprestado da filósofa Hannah Arendt (2006 [1964]). Foi assim que ela denominou a “total falta de pensamento” de Adolf Eichmann, criminoso de guerra nazista encarregado das operações logísticas que conduziram aos campos de concentração milhões de judeus e outros perseguidos do regime. Ao acompanhar o julgamento de Eichmann, em Jerusalém, Arendt se espantou e aterrorizou, ao perceber que (segundo suas observações) um mal imenso foi causado por um indivíduo totalmente banal e desprovido de ideias próprias, sem ódio ou deliberações malévolas aparentes, entregue por inteiro a uma máquina burocrática de morte. A banalidade de que fala a filósofa, portanto, refere-se a uma atitude existencial rotineira, que viabiliza e fomenta o mal. Afirmar, como fez Arendt, que Eichmann “nunca se deu conta do que fazia” (“never realized what he was doing”) é questionável. Por outro lado, ela acerta ao constatar que o mal se materializa, das piores formas, por meio de pessoas terrivelmente comuns, nas quais coexistem indiferença moral, ausência de consciência crítica e renúncia à busca por sentido, ou significado (cf. ARENDT, 2022, p.36-37).

Ora, as características atribuídas por Arendt às pessoas transpõem-se, com agravantes, às diversas instâncias e modalidades da inteligência artificial (que doravante denominaremos inteligências artificiais, ou IAs, no plural). Computadores (ou, seja, as inteligências artificiais) não sabem rir, disse recentemente o escritor moçambicano José Eduardo Agualusa (2023). Devemos acrescentar que também são incapazes de chorar, de se irritar, de se embevecer, de se preocupar, de se indignar, de sentir ternura, de ter empatia. Se um ser humano escolhe o caminho da alienação e da indiferença, podemos dizer que ele renunciou à busca por sentido nas suas ações. A uma IA, contudo, faltam as condições de base para buscar ou renunciar ao que quer que seja. A inteligência artificial, em quaisquer das suas manifestações, não se compromete com nada nem com ninguém, pois, diferentemente das pessoas, não está implicada no mundo dos fatos, das ideias, dos sentimentos e das emoções. O Chat GPT cria textos sem qualquer compromisso com o sentido das palavras. Informação ou desinformação, verdade ou mentira, sabedoria ou tolice, vida ou morte são ideias totalmente alheias à sua natureza. Nele, como em outras IAs generativas, a correção gramatical esconde a mais radical ausência de pensamento.

No episódio da calúnia ao professor Jonathan Turley, ninguém mandou o Chat GPT inventar mentiras, nem tampouco houve um mal funcionamento do programa. Ao contrário, ele “rodou” corretamente, como se diz no jargão da informática, e daí resultou uma narrativa sem qualquer conexão com a realidade. Nesse sentido, o processo que conduziu ao texto calunioso é banal, apesar do resultado um tanto grosseiro e potencialmente devastador. Dependendo do contexto, a resposta do sistema poderia ter arruinado a reputação e a vida de um homem, mas também poderia ter alimentado discursos de ódio, com desdobramentos graves.

O Chat GPT não dá respostas fora de propósito por indiferença, descuido ou qualquer outra atitude atribuível a um ser humano. Qualquer antropomorfismo, no caso, esconderia o cerne do problema: não há e não pode haver nenhum traço de humanidade nessa inteligência artificial, ou em qualquer outra conhecida até agora. Essa (maldisfarçada) não-humanidade radical dos chamados sistemas inteligentes se manifesta em aplicações muito anteriores à geração automática de textos. As inteligências artificiais que jogam xadrez, por exemplo, são alheias ao que faz desse jogo – ao mesmo tempo ciência e arte – uma das atividades lúdicas e desportivas mais praticadas no mundo: a estética dos arranjos geométricos, o encanto das peças artesanais, a história dos jogadores e torneios, a alegria de uma partida bem jogada, o exercício criativo, a fantasia, o mistério das posições insondáveis, o desejo de aprender sempre mais. Para o jogador humano, cada posição e cada lance do xadrez significam todo um universo de memórias, gostos, raciocínios e emoções. No interior da máquina, no entanto, cada posição é apenas um vetor de algarismos binários (zeros e uns) e cada lance é calculado por meio de bilhões de operações lógicas e aritméticas estereotipadas. Daí decorre, é certo, um xadrez de eficácia sobre-humana, capaz de derrotar facilmente os maiores enxadristas. Não obstante, os sinais digitais que chegam ao monitor sob a forma de um tabuleiro, peças e descrição algébrica das jogadas não significam nada para a IA. Paradoxalmente, portanto, a inteligência artificial só joga xadrez na medida em que os jogadores humanos interpretam como xadrez aquilo que ela faz. No fim das contas, é a intenção de pessoas dotadas de determinados conhecimentos que dá sentido às operações da máquina.

Analogamente, os textos usados para treinar o ChatGPT nada significam para ele, e os textos por ele produzidos só adquirem sentido quando lidos por seres humanos. Tal como nas jogadas do xadrez (embora por mecanismos distintos), a geração automática de textos é um processo computacional muitíssimo eficiente, mas totalmente desprovido de alma. Por outro lado, por trás dos textos gerados pelas IAs existe a inteligência humana construindo, ao longo de séculos, os textos usados para treiná-las: matéria-prima de que as grandes empresas de tecnologia – as Big Techs – se apropriam, em geral gratuitamente. Ademais, não se deve esquecer a inteligência das milhares de pessoas que concebem, implementam e treinam tais sistemas.

Pode-se argumentar que devemos, afinal, reconhecer no ChatGPT e outras IAs algum traço de inteligência humana, porque, ao interagir com elas, as pessoas acreditam estar diante de entes racionais, ou até conscientes. Contudo, essa é uma questão ao mesmo tempo psicológica e sociológica, que não muda o status ontológico das IAs, isto é, (i) aquilo que elas realmente são, (ii) aquilo que elas não são e (iii) aquilo que elas não podem ser, no atual estágio científico e tecnológico. Nesse sentido, vale lembrar que a tendência a humanizar as máquinas é antiga.  Em meados dos anos 1960, Joseph Weizenbaum, trabalhando no MIT, codificou um programa chamado ELIZA, que simulava conversações de forma algo rudimentar, dado o hardware limitadíssimo da época (WEIZENBAUM, 1976). Mesmo assim, várias pessoas interagiram com o programa convencidas de estar perante um ser senciente, capaz de compreendê-las e de se importar com elas. Hoje, as IAs, treinadas sobre bases de dados imensas e usando recursos computacionais milhões de vezes maiores do que no passado, interagem com as pessoas de forma muito mais enganadora. Não obstante, podemos perceber os seus limites e idiossincrasias se cultivarmos uma salutar vigilância epistemológica, como ensina a filosofia da ciência, mantendo em alerta nossa própria inteligência e sensibilidade.

Chomsky, Roberts e Watumull (2023) apresentam um breve diálogo entre Watumull e o ChatGPT. Em determinado momento, o programa diz que, (1) embora seja capaz de compreender e interpretar a linguagem, não tem a experiência subjetiva que os humanos têm. Isso, depois de dizer que (2) é incapaz de ter pontos de vista, bem como de formar opiniões ou crenças. Depois, o ChatGPT afirma (3) não ter crenças morais e não ser capaz de formular juízos morais. Alega, então, que (4) não pode ser considerado moral ou imoral (portanto, ele seria amoral, o que é fundamentalmente correto). Contudo, logo adiante o software acrescenta que (5) “a ausência de crenças morais da IA não significa necessariamente que ela é moralmente indiferente”. Contudo, a conclusão (5) é incompatível com as premissas (1-4): as inteligências artificiais são, sim, moralmente indiferentes no nível mais fundamental, justamente porque lhes faltam a experiência subjetiva a capacidade de formar opiniões e crenças, bem como a de formular juízos, conforme escreve o próprio ChatGPT. A fim de evitar qualquer antropomorfismo, seria mais adequado, talvez, dizer que essa e as outras IAs não são indiferentes, em sentido estrito, mas moralmente ausentes: no que concerne às questões morais, diríamos, informalmente, que as IAs “não estão nem aí”.

Os autores citados observam que o ChatGPT “manifesta algo como a banalidade do mal: plágio, apatia e evasivas” (“plagiarism, apathy and obfuscation”). A essa observação, importa acrescentar outro aspecto da banalidade do mal, que é o uso inconsequente das palavras. Os verbos “compreender” e “interpretar”, no diálogo em questão, foram usados pelo ChatGPT de forma não apenas equivocada, mas rebaixada.  É descabido dizer que um ente sem vida subjetiva, incapaz de sustentar crenças e de formular juízos, pode compreender e interpretar textos. Se o programa fosse humano, caberia qualificá-lo como um banal repetidor de palavras, que adultera o sentido dos termos e se desvia das questões fundamentais por meio de sofismas. Contudo, o programa é apenas um programa, estranho aos fundamentos do discurso e desprovido das capacidades humanas para o uso da linguagem – e é isso que deveríamos ter em mente ao utilizá-lo.

Com a disseminação dos agentes artificiais ditos inteligentes, observa-se o crescente uso de linguagem antropomórfica para descrever suas características ou relatar suas ações. Como assinala Rumman Chowdhury (2023), ninguém jamais diria que sua torradeira é racista ou que seu notebook é sexista. Não obstante, adjetivos desse tipo são frequentemente aplicados às inteligências artificiais. Assim, diz Chowdhury, deixamos de nos responsabilizar pelas ações dos produtos que criamos e escolhemos a atitude que ela apelidou de “terceirização moral” (“moral outsourcing”). Nessa mesma linha crítica, há mais de trinta anos, Neil Postman (1992), emprestando um termo de Stanley Milgram, denominou “deslocamento da agência” (“agentic shift”) a tendência de as pessoas transferirem responsabilidades para as máquinas. Mais uma vez, portanto, estamos diante de um fenômeno antigo, mas agravado pela atual diversificação e abrangência da IA, cada vez mais implicada em tarefas e decisões críticas. Chowdhury também enxerga aí a banalidade do mal, na medida em que nos distanciamos moralmente dos procedimentos e decisões doravante confiados à inteligência artificial.

Servir de pretexto para negarmos as nossas responsabilidades é, portanto, um aspecto sombrio das IAs. Outro é o risco de as tomarmos como referência para a qualidade das decisões e ações humanas, ou do trabalho humano, em geral. Esse risco aumenta com a crescente substituição das pessoas por máquinas, nas mais diversas áreas profissionais. Na prática, como o ChatGPT consegue escrever com mais clareza que a maioria das pessoas, começamos a achar que o ChatGPT realmente escreve bem. Se é capaz de ser aprovado em exames diversos, com notas maiores do que as dos candidatos humanos, começamos a achar que tem competências superiores às nossas. Essas seriam, contudo, conclusões precipitadas. Simulação eficaz de habilidades e competências humanas não implica domínio do conhecimento e nem capacidade de aprendizado com qualidade humana, nem tampouco a capacidade de estabelecer nexos e criar sentido (cf. Searle, 1983; Dreyfus & Dreyfus, 1986; Penrose, 1995; Collins & Kusch, 1998; Amorim, 2007). Um bom programa de xadrez, rodando em um telefone celular, é mais forte do que o campeão do mundo, mas isso não significa que, no xadrez, não há mais lugar para os seres humanos. Mesmo sendo um domínio fechado e determinístico, o xadrez é um campo vasto de reflexão e criatividade. Sob esse ponto de vista, as inteligências artificiais são bem-vindas como máquinas epistemológicas (Amorim, 2002) auxiliares à inventividade humana, tal como ocorre com diversos softwares usados nas ciências e nas engenharias.

A crença ingênua nas capacidades das máquinas tem consequências para a forma como enxergamos o nosso próprio potencial. Há muito tempo, autores diversos (dentro e fora da tradição marxiana) vêm discutindo a erosão das habilidades e competências humanas diante da automação (p. ex., Marx & Engels, 1998 [1844]; Braverman (1998 [1974]); Collins, 1992; Collins & Kush 1998), fenômeno que o uso indiscriminado das IAs tende a radicalizar. Quanto mais acreditarmos que as máquinas se equiparam a nós, superam-nos e podem nos substituir sem supervisão, maiores as possibilidades de que a banalidade do mal se manifeste, dado que nos sentiremos incapazes de nos posicionar criticamente ante sua performance e seus outputs, supostamente superiores à performance aos outputs humanos. Aqui, o uso deliberado desse jargão empresarial serve de alerta: ao compararmos pessoas e máquinas somente em termos de performance e output – algo corriqueiro no mundo da produção – esperamos que as pessoas sejam simples meios para a obtenção de resultados; portanto, potenciais partícipes da banalidade do mal.

Tendo em vista as rápidas transformações trazidas pela IA ao mundo do trabalho, o Fórum Econômico Mundial (2023) patrocinou um estudo prospectivo sobre a situação das diversas áreas profissionais face ao desenvolvimento das IAs baseadas em LLMs, onde os postos de trabalho, ou tarefas (“jobs”) são classificados em mais ou menos “expostos” (“exposed”) à automação. Teríamos, então, as tarefas com alto potencial de automação, as tarefas com auto potencial de ampliação (“augmentation”), aquelas pouco expostas, tanto em termos de substituição como de ampliação e, finalmente as tarefas consideradas não linguísticas e, portanto, não expostas ao impacto das LLMs. Nessa última categoria estão as tarefas que em que predominam os movimentos do corpo e especialmente das mãos. Paradoxalmente, portanto, muitas das tarefas não expostas aos LLMs estariam entre aquelas socialmente desprestigiadas e parcamente remuneradas, como carga e descarga de veículos, trabalho agrícola e montagem e instalação de equipamentos.

Dentre as tarefas candidatas à ampliação, por meio da cooperação entre os agentes humanos e artificiais, aparecem o diagnóstico médico seguido de sugestões terapêuticas e a preparação de material instrucional. Em ambos os casos, efetivamente, as IAs tem grande potencial, como ferramentas de apoio importantes. Porém, a depender dos padrões usados para avaliar os produtos do trabalho, as IAs podem atuar, nessas tarefas, praticamente sem intervenção humana, inclusive sem o conhecimento dos usuários e clientes. Considerando que, no mundo da produção o lucro é, na prática, a medida de todas as coisas, é provável que as empresas optem pela maior intrusão da IA sempre que essa for a escolha mais lucrativa. Uma vez normalizada a situação, poderemos conviver com padrões profissionais medíocres, inflexíveis e desumanizados na educação e na saúde – dentre outras áreas –, porque as pessoas terão sido relegadas à condição de coadjuvantes das máquinas, e não o contrário.

Na lista de tarefas caracterizadas como tendo alto potencial de automação, aparecem a “análise de dados para melhoria de operações” e o “monitoramento de assuntos externos, tendências e acontecimentos”. Em ambos os casos, estamos diante de tarefas em que o uso desassistido das IAs nos fará reféns das suas peculiaridades e vieses, que nenhum modelo de aprendizagem pode evitar. Além disso, é difícil imaginar como as máquinas podem identificar dados e situações relevantes socialmente contextualizados. Alguns sistemas automáticos nessas linhas já têm sido agentes da banalidade do mal, como, por exemplo, os sistemas para previsão de eventos criminais, que, totalmente desprovidos de contexto, tendem a estigmatizar certos grupos sociais e as áreas urbanas que habitam (Coeckelbergh, 2020).

Dialogando com a sociologia e a filosofia do conhecimento e da técnica, Collins (1992) discute a substituição do trabalho humano em termos filosóficos e sociológicos. Ele afirma que “o problema não está em saber o que as máquinas são capazes de fazer, mas, antes, saber o que nós somos capazes de fazer. Se nós imitarmos as máquinas nos nossos atos, as máquinas poderão nos substituir no nosso trabalho, mas, então, esse trabalho deve já ser maquinal, para que as máquinas possam ocupar o espaço”. É importante acentuar esse ponto: saber o que nós, humanos, somos capazes de fazer. Se o comportamento das máquinas for o benchmark preferido para avaliar as ações humanas, estaremos condenados à frustração, pois não podemos competir com as máquinas naquilo que elas fazem melhor. Se, contentes com as referências maquinais, deixarmos de explorar nossas próprias capacidades, não mais as desenvolveremos.

O estudo do Fórum Econômico Mundial não propõe uma abordagem crítica profunda, mas tenta balizar o uso construtivo dos LLMs. Nesse sentido, enfatiza a necessidade de se treinar os sistemas com base em conjuntos de dados submetidos a um processo de curadoria e controle de qualidade. Ressalta, além disso, que os sistemas deveriam ser rigorosamente testados antes de ser liberados para uso. Logo, as empresas responsáveis deveriam contar com profissionais especializados para garantir a segurança e a ética dos sistemas. Ademais, diz o texto, os agentes reguladores governamentais deveriam ter papel de destaque para garantir que as IAs pudessem substituir ou auxiliar as pessoas no seu trabalho de forma consequente. A história do capitalismo, entretanto, não corrobora otimismo em relação à prudência dos fabricantes ou ao rigor das autoridades na adoção de novas tecnologias.

A acusação indevida de assédio, pelo ChatGPT, mencionada no início deste artigo, mostra como uma tecnologia imatura, embora de grande alcance, pode ser atirada ao público para, na prática, ser testada em uso, praticamente à margem de qualquer regulação. O desenvolvimento das IAs em larga escala requer investimentos elevadíssimos. Por isso, os dirigentes das empresas são pressionados a lançar os produtos daí derivados o quanto antes, tornando difícil compatibilizar a demanda por retorno financeiro de curto prazo com as precauções necessárias no trato com tecnologias de grande poder destrutivo. Na prática, o ritmo dos relatórios trimestrais aos acionistas não permite que ouçam o alerta do centenário filósofo Edgard Morin (2022): “Poder sem consciência é apenas ruína da alma” (“Puissance sans conscience n'est que ruine de l'âme”).

Ao cabo dessa exposição, por certo panorâmica e incipiente, podemos resumir, sem de modo algum esgotar, algumas formas pelas quais se manifesta a banalidade do mal, com o  uso irrefletido das inteligências artificiais: (i) substituição da criatividade e da flexibilidade humanas por rotinas maquinais estereotipadas; (ii) radicalização da transferência de responsabilidades na relação humano-máquina; (iii) aprofundamento da erosão de competências e habilidades humanas fundamentais; (iv) embaraço à sensibilidade e à capacidade das pessoas formularem juízos éticos e estéticos; (v) corrupção da linguagem; naturalização de modalidades de discurso totalmente desconectadas da ética, da estética, da ideia de verdade e da busca por sentido; (vi) a ilusão de que a IAs são sencientes, dotadas de alguma conexão com o mundo da vida e da cultura e (vii) a superposição e os laços de retroalimentação entre os problemas de (i - vi), que potencialmente agravam cada um e todos eles.

Ao concluir, devemos considerar que, por um lado, é inegável o potencial da inteligência artificial como conjunto de técnicas e dispositivos capazes de nos ajudar em tarefas diversas, bem como alargar os limites do conhecimento. Por outro lado, sob o império do capitalismo tardio, em que prevalecem a comoditização extrema de bens e serviços, assim como a acumulação financeira por meio da produção e do consumo desenfreados, o uso indiscriminado e inconsequente da inteligência artificial abre campo a muitos males. Se, no fim das contas, dinheiro é o que mais importa (ou tudo o que importa), as IAs serão orientadas ao cálculo frio do lucro, mesmo que contribuam para agravar a devastação ambiental ilimitada e a desconstrução de conquistas civilizatórias características do nosso tempo. Com o aprofundamento das crises sociais, as tecnologias da informação, com destaque para a IA, tornam-se instrumentos potentes de controle e opressão, nas mãos de umas poucas entidades estatais e privadas trabalhando em conjunto.

Diante de um quadro assim desfavorável, perguntaremos se há espaço para o uso construtivo, prudente e socialmente relevante da IA. Naomi Klein (2023) responde, afirmando que a inteligência artificial pode ser efetivamente usada para “beneficiar a humanidade, outras espécies e nossa casa comum”. Mas, acrescenta, “para que isso aconteça, essas tecnologias precisariam ser aplicadas em uma ordem econômica e social muitíssimo diferente da nossa, que tivesse como propósito atender às necessidades humanas e proteger os sistemas planetários que sustentam a vida”. Pensar em como chegar a esse novo mundo, e materializá-lo, é uma tarefa humana, intransferível. E não adianta chamar pelas máquinas: estranhas às nossas alegrias e sofrimentos, crenças e incertezas, realizações e fracassos, elas não responderão.

Referências

Agualusa, J. E. (22/julho/2023). Computadores não sabem rir. O Globo. https://oglobo.globo.com/cultura/jose-eduardo-agualusa/noticia/2023/07/22/computadores-nao-sabem-rir.ghtml

Amorim, C. A. (2002). A máquina e seus limites: uma investigação sobre o xadrez computacional. [Dissertação de mestrado, UFBA - Universidade Federal da Bahia]. https://ppgefhc.ufba.br/sites/ppgefhc.ufba.br/files/dissertacao_-_claudio_amorim.pdf

Amorim, C. A. (2007). A herança cibernética: desafios educacionais em um mundo de automação. [Tese de doutorado, UFBA - Universidade Federal da Bahia]. https://repositorio.ufba.br/bitstream/ri/11797/1/Claudio%20Amorim.pdf

Arendt, H. (2006 [1964]). Eichman in Jerusalem. Penguin Classics.

Arendt, H. (2022). A vida do espírito (11.ed.). Civilização Brasileira.

Braverman, H. (1998 [1974]). Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century. Monthly Review.

Chowdhury, R. (2023, May 29). “I do not think ethical surveillance can exist.The guardian. https://www.theguardian.com/technology/2023/may/29/rumman-chowdhury-interview-artificial-intelligence-accountability

Coeckelbergh, M. AI Ethics. (2020). The MIT Press.

Collins, H. (1992). Experts Artificielles : machines intelligentes et savoir social. Éditions du Seuil.

Collins, H., Kusch, M. (1998). The shape of actions: what humans and machines can do. The MIT Press.

Dreyfus, H. L., Dreyfus, S. E. (1986). Mind over Matter: the power of human intuition and expertise in the era of the computer. The Free Press.

Klein, N. (2023, May 8). AI machines aren’t ‘hallucinating’. But their makers are. The Guardian. https://www.theguardian.com/commentisfree/2023/may/08/ai-machines-hallucinating-naomi-klein

Marx, K; Engels, F. (1998). Manifesto Comunista. Editora Boitempo.

Morin, E. (2022). Réveillons-nous ! Éditions Denoël.

Penrose, R. (1995). Inteligência matemática. In J. Khalfa (Org.), A natureza da Inteligência (pp.111-138).

Postman, N. (1992). Technopoly: the surrender of culture to technology. Vintage Books.

Searle, John. (1983). Intentionality: an essay on the philosophy of mind. Cambridge University Press.

Suzuki, S. (11/maio/2023). O professor que foi considerado “louco e alarmista” e vem acertando previsões sobre inteligência artificial. BBC News Brasil. https://www.bbc.com/portuguese/articles/c3gv64qmvjlo

Weizenbaum, J. (1976). Computer power and human reason: from judgement to calculation. W. H. Freeman and Company.