Carta do Repositório: Ética

Justificativa das indicações bibliográficas da frente “Ética”

A área de Ética da Inteligência Artificial é um campo recente que, nos últimos dez anos, passou de tema de alguns poucos pesquisadores à preocupação comum da grande mídia. Oportunidades profissionais específicas para pesquisadores na área de ética da IA passaram a existir no âmbito privado e nas universidades, declarações de ética são abundantes e uma série de publicações sobre o tema apareceu nos últimos anos. Diante deste oceano de novas informações, buscamos, aqui, apresentar algumas referências do que consideramos relevantes para a área, de um ponto de vista teórico a partir da ética filosófica – já que percepções sociais sobre a moralidade dos usos da IA podem advir de diversas fontes.

Este repositório de referências não se propõe a ser exaustivo quanto à “literatura mais importante da área”, mas a apresentar fontes confiáveis que permitem, em nossa visão, uma apresentação interessante dos principais problemas do campo. Nesse sentido, são apresentadas quatro seções de textos que acreditamos serem relevantes para a área de Ética e IA: (1) um panorama da área, (2) exemplos de questões específicas, (3) trabalhos de IA com relevância histórica para a ética da IA e (4) trabalhos de ética e filosofia da tecnologia com relevância história para a ética da IA. As duas últimas seções justificam sua presença, pois os próprios fundamentos da IA já podiam levantar questões éticas, assim como diversas reflexões sobre ética e filosofia da tecnologia já existentes anteriormente também ajudam a compreender a área. As escolhas aqui indicadas refletem análises de nosso grupo, indicando uma possibilidade de leitura dos fenômenos que não exclui outras possíveis abordagens.

Dentre os textos de panorama da área, cabe destacar alguns dos trabalhos apresentados. O artigo de Edmond Awad e colegas (2018), “The moral machine experiment”, sobre o “experimento moral” a partir de carros autônomos merece atenção por ter sido um catalizador dos debates na área – ainda que sua abordagem ética possa ser questionada. O texto de Nick Bostrom e Eliezer Yudkovsky (2014), “The ethics of artificial intelligence”, representou uma importante sistematização de questões analíticas em questões de fundamento como o que deve conceder a uma IA ou a um robô um estatuto de agente ético. Nosso repositório propõe uma visão da área de Ética e IA, não entrando em um panorama das declarações e legislações já propostas na área. Mesmo assim, os trabalhos de Luciano Floridi e et al (2018), “AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations”, Brent Mittelstadt (2019), “Principles alone cannot guarantee ethical AI”, e Thilo Hagendorff (2020), “The ethics of AI ethics: An evaluation of guidelines”, foram selecionados pois fazem uma discussão crítica das propostas de princípios na área.

Sobre o mapeamento de diversas questões levantadas pela ética da IA, desde o estatuto ético de robôs até problemas de privacidade, vieses, explicabilidade e mesmo impacto ambiental, o livro de Mark Coeckelbergh (2020), AI Ethics, apresenta um ótimo panorama da área. O livro AI: Its Nature and Future, da filósofa Margaret Boden (2016), uma das fundadoras do campo de ciência cognitiva, oferece uma apresentação rigorosa da história e natureza da IAs com base em alguns dos seus problemas filosóficos mais fundamentais; o livro vai além da discussão ética apenas, envolvendo também a filosofia da linguagem, filosofia da mente e epistemologia. O verbete “Ethics of Artificial Intelligence and Robotics”, de V. Müller, escrito para a Stanford Encyclopedia of Philosophy, é uma fonte de referência confiável e atualizada sobre a intersecção entre problemas normativos e o desenvolvimento e emprego de IAs. Já o livro-texto de Paula Boddington (2023), AI Ethics: A Textbook, é um pequeno tratado sobre o assunto, que aborda tanto conceitos fundamentais como as principais fronteiras de pesquisa na ética de IAs. Uma das virtudes da perspectiva de Boddington é mostrar que não apenas o uso em larga escala de IAs traz riscos éticos, mas que desenvolvimentos tecnológicos nos obrigam a repensar, de igual modo, as nossas teorias morais convencionais.

Dentre os exemplos de questões específicas apresentados no repositório, uma das áreas a ser destacada no que diz respeito aos impactos éticos da IA é aquela de direitos humanos e políticas públicas, para a qual apresentamos duas referências: a primeira reforça a ideia da necessidade de atenção e ação por parte dos estados e a segunda um possível meio para sua difusão. O documento Human rights by design future-proofing human rights protection in the era of AI é uma Recomendação de Acompanhamento, que analisa os desafios enfrentados pelos estados-membros do Conselho da Europa na implementação da Recomendação de 2019 (Unboxing Al: 10 steps to protect Human Rights). Este documento considera o impacto negativo que os sistemas de IA podem ter sobre a capacidade das pessoas de usufruir de um direito humano como um possível dano aos direitos humanos e reforça a necessidade de ação por parte dos estados-membros e outros atores. Já o documento AI governance and human rights: Resetting the relationship explora como a ideia da governança dos direitos humanos e da governança da IA se sobrepõem, sendo a primeira um meio de difusão de princípios éticos para a segunda. Outra temática levantada sob esse aspecto (dentre outras que poderiam também aparecer aqui) é aquela da discussão ética do impacto do uso da IA sobre minorias, tal como aparece no artigo de Joy Buolamwini e Timnit Gebru (2018), “Gender shades: Intersectional accuracy disparities in commercial gender classification”. Tal trabalho, escrito por duas autoras pertencentes a minorias, foi muito importante, dando origem a um filme sobre o racismo algorítmico (“Coded bias”) e trazendo o assunto para a realidade mais próxima das pessoas.

Dentro os trabalhos de IA com relevância histórica para a ética da IA, nos limitamos a apresentar dois textos clássicos. O artigo de Alan Turing (1950), “Computing machinery and intelligence”, tomado por alguns como fundador do campo da IA, traz a célebre ideia do “jogo da imitação” no contexto da discussão sobre a inteligência da máquina. Já o artigo de 1980 do filósofo John Searle, “Minds, brains, and programs”, apresenta um momento importante da discussão que se sucedeu. Não há em tais trabalhos uma discussão ética explícita, mas as implicações que decorrem são numerosas. Se eles talvez sejam um lugar comum para os pesquisadores da área de filosofia da mente, por exemplo, acreditamos que devem ser listados como balizas importantes para alguém que, tendo conhecimento sobre teorias éticas, deseja começar a refletir sobre a IA.

Os trabalhos de ética e filosofia da tecnologia com relevância história para a ética da IA compõem uma área que poderia apresentar diversas possibilidades de textos, pois trata-se de um campo com décadas de trabalho anterior, e que se torna relevante para discutir a ética da IA. Aqui, ao apresentar referências, não pretendemos trazer mais que exemplos de perspectivas que são de interesse para a área. Um texto clássico de Herbert Marcuse, originalmente publicado em 1941, intitulado “Some Social Implications of Modern Technology”, antecipa questões relevantes para as discussões sobre ética e IA, ao discutir a tecnologia como “modo de produção, como totalidade dos instrumentos, dispositivos e invenções que caracterizam a era da máquina […], uma manifestação do pensamento e dos padrões de comportamento dominantes, um instrumento de controle e dominação”. Já o célebre livro O Princípio Responsabilidade, publicado originalmente em 1979 por Hans Jonas, não está diretamente relacionado com IA, mas representa um dos autores que está começando a ser mais retomado para pensar a ética em relação a esse domínio. Quanto ao Pensamento Complexo do centenário Edgar Morin, finalmente, aparece com uma dimensão ética no sexto volume de sua obra O Método. Considerando que a IA um sem número de inter-relações, realimentações e uma interação entre elementos distintos que se interconectam e influenciam, pode-se considerar que tal perspectiva que privilegia a complexidade seria interessante para analisá-la, inclusive no âmbito ético.

Indicações Bibliográficas

Awad, E. et al. (2018). The moral machine experiment. Nature.

Boddington, P. (2023). AI Ethics: A Textbook. Springer.

Boden, M. (2016). AI: Its Nature and Future. Oxford University Press.

Bostrom, N., & Yudkowsky, E. (2014). A ética da inteligência artificial. In.: The Cambridge Handbook of Artificial Intelligence. Cambridge University Press.

Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In.: Proceedings of the Conference on Fairness, Accountability, and Transparency.

Coeckelbergh, M. (2020). AI Ethics. MIT Press.

Council of Europe. (2023). Human rights by design: future-proofing human rights protection in the era of AI.

Dubber, M. D., Pasquale, F., & Das, S. (2020). The Oxford Handbook of Ethics of AI. Oxford University Press.

Floridi, L. et al. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and Machines.

Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines.

Jones, K. (2023). AI governance and human rights: Resetting the relationship.

Jonas, H. (2006). O Princípio Responsabilidade: ensaio de uma ética para a civilização tecnológica. PUC-Rio. (Originalmente publicado em 1979).

Marcuse, H. (1999). Algumas implicações sociais da tecnologia moderna. UNESP. (Originalmente publicado em 1941).

Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence.

Muller, V. (2020). Ethics of Artificial Intelligence and Robotics. Stanford Encyclopedia of Philosophy.

Morin, E. (2005). O Método 6. Ética. Sulina. (Originalmente publicado em 2004)

Turing, A. (1950). Computing machinery and intelligence. Mind.

Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences.