Temos que falar sobre Asilomar
Por Enio Alterman Blay
Histórico
A história pode frequentemente nos dar lições, através de eventos passados, para problemas contemporâneos. O caso em questão é a discussão a respeito de uma moratória para as pesquisas relacionadas com a inteligência artificial (IA) publicada em uma carta aberta em 22/03/2023 (Future of Life Institute, 2023), provavelmente desdobramento do pedido anterior, pela ONU em 2021 (UN News, 2021), cujos efeitos foram incipientes. Vamos, então, olhar para o passado.
Em 1974 diante de grandes celeumas que aconteciam na sociedade em função das pesquisas genéticas, ainda em seus primórdios, foi pedida uma moratória pela própria comunidade acadêmica, como conta Paul Berg em seu ensaio comemorativo dos trinta e três anos do evento (Berg, 2008).
Em 1975 aconteceu em Asilomar, nos Estados Unidos, uma conferência para discutir a regulamentação da pesquisa genética. Aquela iniciativa, liderada por pesquisadores das principais universidades envolvidas no assunto, discutiu e desenvolveu um modelo de princípios que conseguiu conciliar os interesses do avanço da pesquisa com a segurança necessária para aquela necessidade (Berg et al., 1975).
Depois de longa discussão, a comunidade científica conseguiu chegar a um documento (National Research Council [U.S.], 1975) que serviu de guia para a política de pesquisa genética nos EUA, publicado em 1976 (Norman, 1976).
O professor Berg, prêmio Nobel de Química de 1980, que coordenou encontro, publicou na revista Nature (Berg, 2008) um balanço do que foi aquela iniciativa. Chama atenção o último parágrafo:
“That said, there is a lesson in Asilomar for all of science: the best way to respond to concerns created by emerging knowledge or early-stage technologies is for scientists from publicly funded institutions to find common cause with the wider public about the best way to regulate — as early as possible. Once scientists from corporations begin to dominate the research enterprise, it will simply be too late.” (2)
Ou seja, ele conclui que, um dos motivos pelos quais aquela iniciativa foi bem-sucedida deveu-se aos envolvidos serem pessoas da academia pois, caso a mesma situação tivesse ocorrido já envolvendo pesquisadores de empresas privadas, esse tipo de controle e de legislação teria sido impossível de ser implementado.
A sociedade parece ter memória bastante curta. Ao pesquisar sobre o encontro para regulação da pesquisa genética em Asilomar, verifiquei que, em uma convenção neste mesmo local, foi elaborado um conjunto de princípios gerais para IA (Future of Life, 2017), propostos em 2017. Um grupo de mil interessados em IA se reuniu para discutir exatamente a orientação que, parece, ora nos falta. O trabalho conjunto de princípios publicados é, curiosamente, assinado inclusive pelas duas maiores empresas que influenciam o mercado e a discussão atual: OpenAI (adquirida pela Microsoft em 2023) e Deepmind (Adquirida pelo Google em 2014).
Assim, o que dizer de tais princípios? Uma análise inicial bastante crítica foi feita pela Federação Alemã de Cientistas (Bartosch, 2018). Mas será que as empresas da área acreditam estarem se guiando por eles? E a sociedade, já poderia se sentir confortável com o desenrolar dos fatos? Ou o que foi feito ficou bem aquém do que precisamos?
E, como na já citada conclusão do artigo do professor Paul Berg, são exatamente as empresas que agora estão envolvidas no desenvolvimento da pesquisa. Ou seja, a caixa de Pandora está aberta.
Perspectivas
Ainda uma vez a história pode nos iluminar o caminho futuro. Várias ameaças tecnológicas do passado já foram endereçadas pela humanidade. Por exemplo, a sociedade de todo o mundo se mobilizou quando da constatação da depleção da camada de ozônio e, em razoavelmente pouco tempo, foi possível eliminar parcialmente as emissões de gases nocivos.
Na área da medicina e saúde, partiu-se de uma situação em que o emprego de tecnologia era muito desregulamentado e desestruturado, com poucas regras éticas e normativas que regiam, desde experimentos com novos medicamentos, passando por tecnologias de transplantes e chegando nas terapias genéticas. Atualmente estabeleceu-se um ambiente substancialmente mais seguro e conforme, com normas aprimoradas e sansões adequadas.
No que diz respeito à energia nuclear, embora ainda pairem riscos nada desprezíveis para a humanidade, certamente o cenário está mais estável e regulamentado, com agências regulatórias internacionais, acordos e sistemas de inspeções.
Mas, no desenvolvimento da IA, uma vez que chegamos ao ponto no qual as empresas já exploram livremente a tecnologia, quais as possibilidades viáveis? Parecem existir quatro direções: regulação estrita, livre ação do mercado, moratória ou um meio-termo dentre estas.
Regulação
De forma geral, alguns passos foram dados. Há um sem-número de arcabouços propostos[1] por empresas, agências intergovernamentais e ONGs em relação a diretivas éticas para a IA (Corrêa et al., 2022). A ONU publicou, sob os auspícios da UNESCO, recomendações sobre ética da Inteligência Artificial (UNESCO, 2023). Na OCDE foi elaborada uma recomendação aos países membros (OECD, 2019). Os EUA criaram um documento (“blueprint”) (The White House, 2022) com cinco princípios mas que, embora se valha do nome de bill of rights, não possui nem força legal nem é uma política pública[2]. De qualquer modo, o assunto continua demandando ampla atenção e cobertura da mídia (Democracy Now, 2023) e provocando novas ações governamentais ao estilo americano de auto-regulação (The White House, 2023).
Quanto à Ásia, um breve levantamento dos países com maior relevância (econômica e acadêmica) no âmbito mundial mostra que a China publicou uma carta de intenções genérica (Permanent Mission of The People's Republic of China to The United Nations Office at Geneva and Other International Organizations in Switzerland, 2023) pelo CAC, órgão central que controla seu ciberespaço, o Japão também disponibilizou uma versão de como princípios éticos de IA devem ser implementados (Japan Ministry of Economy, Trade and Industry, 2022) e a Índia já elaborou um documento estruturante em duas partes no que diz respeito à IA (India Ministry of Electronics and Information Technology, 2021).
No cenário brasileiro existe a LGPD (LGPD, 2018) que protege a privacidade dos dados pessoais e, de forma tangencial, seu uso em IA já que prevê a necessidade de autorização do emprego destas informações para outras finalidades. Existe ainda uma legislação específica para IA que foi aprovada na câmara dos deputados em setembro de 2021 (Eduardo Bismarck, 2021a) e enviada ao Senado, onde sua tramitação se encontra desde então (Eduardo Bismarck, 2021b). A situação parece distante de um consenso para entrar em vigor.
Entretanto os interesses empresariais, como alertado por Berg no caso da genética, podem ser decisivos, a exemplo do projeto de lei contra “Fake News” no qual as empresas utilizaram substanciais recursos financeiros e legais para combater a tentativa de se impor controles e limites pelo Estado (Motta, 2023). É no mínimo temerário o fato de que as principais empresas interessadas no assunto IA sejam também as maiores do mundo e que seu poder de influência financeira e política seja proporcionalmente equivalente.
Laissez-faire
O cenário sem interveniência do Estado ou da sociedade em geral, na regulação da IA, poderia ser considerado. Pelo menos, do ponto de vista meramente hipotético.
A ideia de uma mão invisível através da qual a defesa dos interesses econômicos individuais resultaria no bem comum dificilmente se aplicaria em um contexto de tamanha disparidade na dimensão dos agentes econômicos e políticos envolvidos.
Não há qualquer indicação de que a introdução das tecnologias de IA tornará o complexo sistema econômico/financeiro estabilizado em um ponto de equilíbrio que distribua benefícios e riquezas de forma justa, que dirá, equitativa. É mais provável que uma tragedia dos comuns (Hardin, 1968), onde o bem compartilhado é exaurido, prejudique a maioria em detrimento de poucos.
Esse desequilíbrio evidente no âmbito da IA, no qual os recursos (conhecimento e materiais) estão concentrados em poucas empresas gigantescas, torna difícil conceber um ambiente fracamente regulado pelas leis já existentes e por princípios éticos que guiariam o agir das corporações e pessoas.
Moratórias
Embora algum tipo de moratória possa funcionar, como no caso da pesquisa genética, citada na primeira parte, uma vez que o mercado já se apossou dos meios tecnológicos para o desenvolvimento, não se pode mais controlar seu avanço. Portanto, a alternativa de paralisar o desenvolvimento seria potencialmente uma encenação passível de descumprimento pelos atores no cenário em questão. E o que nos resta?
Um Meio-Termo
Pode haver algumas formas de tratar a questão, usando as diversas abordagens à mão. A ética, por exemplo, poderia ser empregada como uma ferramenta, tanto educacional quanto legal.
Por um lado, é possível que organismos públicos como universidades, ONGs e governos adotem e defendam os valores éticos, como aqueles apresentados por Floridi (Floridi et al., 2018), nos “AI principles” (Future of Life, 2017), entre outros. Esse tipo de ação pode ajudar a esclarecer e educar novas gerações que entram no ambiente profissional a defender e praticar tais valores. De forma geral, às pessoas formadas nas áreas de engenharia e ciências da computação nem é oferecida uma disciplina de ética. Do ponto de vista legal, recursos para regulamentação mais eficientes e flexíveis podem ser empregados.
Os riscos e ameaças das tecnologias de IA são grandes e reais. Conforme explica Hans Jonas no Princípio Responsabilidade (Jonas, 2015), as pessoas precisam se sensibilizar pelo que ele chama de heurística do temor, na qual as consequências nefastas, inclusive e especialmente para as gerações futuras, deve ser nosso guia de como agir hoje.
Até o momento, nenhuma das duas centenas de declarações de princípios ganhou um estatuto legal, ou seja, não se pode usá-las para proteger o cidadão e punir os responsáveis.
Ao nos depararmos com os potenciais benefícios e imensos riscos de perdas que não podem ser recuperados, é obrigação (na ética, um imperativo categórico) que, como afirma Jonas, se "aja de modo a que os efeitos da tua ação sejam compatíveis com a permanência de uma autêntica vida humana sobre a Terra". (Jonas, 2015, p. 47)
Esta reflexão remete não apenas a preservar a vida mas que ela seja plena, principalmente para as próximas gerações. Somente a obrigação moral e a participação de cada um na construção do futuro da descendência da humanidade impedirá que as ameaças se concretizem e criem um mundo repleto de controle e automatismo e deserto da multiplicidade da vida, no qual a relevância humana pareça ter sucumbido.
Notas
(1) Seção baseada em artigo publicado no Jornal da USP - https://jornal.usp.br/artigos/a-caixa-de-pandora-da-inteligencia-artificial/
(2) Dito isso, há uma lição em Asilomar para toda a ciência: a melhor maneira de responder às preocupações criadas pelo conhecimento emergente ou pelas tecnologias em estágio inicial é fazer com que os cientistas de instituições com financiamento público encontrem uma causa comum com a sociedade sobre a melhor maneira de regular – e o mais cedo possível. Pois assim que os cientistas das corporações começarem a dominar o empreendimento de pesquisa, simplesmente será tarde demais [Em tradução livre].
Referências
Bartosch, U. (2018). Policy-Paper-on-the-Asilomar-principles-on-Artificial-Inteligence_end.
Berg, P. (2008). Asilomar 1975: DNA modification secured. Nature, 455(7211), 290–291. https://doi.org/10.1038/455290ª
Berg, P., Baltimore, D., Brenner, S., Roblin, R. O., & Singer, M. (1975). Summary statement of the Asilomar conference on recombinant DNA molecules. Proceedings of the National Academy of Sciences of the United States of America, 72(6), 1981–1984.
Corrêa, N. K., Galvão, C., Santos, J. W., Del Pino, C., Pinto, E. P., Barbosa, C., Massmann, D., Mambrini, R., Galvão, L., Terem, E., & Oliveira, N. d. (2022, June 23). Worldwide AI Ethics: a review of 200 guidelines and recommendations for AI governance. http://arxiv.org/pdf/2206.11922v6
Democracy Now (2023). How AI Is Enabling Racism & Sexism: Algorithmic Justice League’s Joy Buolamwini on Meeting with Biden. https://www.democracynow.org/2023/6/22/joy_buolamwini_on_ai_risks
Eduardo Bismarck. (2021a). PL 21/2020 — Portal da Câmara dos Deputados. https://www.camara.leg.br/propostas-legislativas/2236340
Eduardo Bismarck. (2021b). PL 21/2020 - Senado Federal. https://www25.senado.leg.br/web/atividade/materias/-/materia/151547
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). Ai4people-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5
Future of Life (2017). AI Principles. URL: https://futureoflife.org/open-letter/ai-principles/
Hardin, G. (1968). The tragedy of the Commons. Science, 162(3859), 1243–1248. https://doi.org/10.1126/science.162.3859.1243
India Ministry of Electronics and Information Technology. (2021). Responsible AI: Part 1 - Principles for Responsible AI. http://indiaai.gov.in/research-reports/responsible-ai-part-1-principles-for-responsible-ai
Japan Ministry of Economy, Trade and Industry. (2022). Governance Guidelines for Implementation of AI Principles Ver. 1.1 Compiled. METI. https://www.meti.go.jp/english/press/2022/0128_003.html
Jonas, H. (2015). O princípio responsabilidade: Ensaio de uma ética para a civilização tecnológica (M. Lisboa & L. B. Montez, Trans.). Contraponto.
Motta, R. (2023). Google gastou R$ 2 milhões em anúncios sobre o PL das fake news, dizem executivos.UOL. https://noticias.uol.com.br/ultimas-noticias/agencia-estado/2023/06/21/google-gastou-r-2-milhoes-em-anuncios-sobre-o-pl-das-fake-news-dizem-executivos-a-pf.htm
National Research Council. (1975). Summary Statement of the Asilomar Conference on Recombinant DNA Molecules, Official reports. https://profiles.nlm.nih.gov/101584930X515
UN News. (2021). Urgent action is needed over artificial intelligence risks to human rights. https://news.un.org/en/story/2021/09/1099972
Norman, C. (1976). Genetic manipulation: guidelines issued. Nature, 262, 2–4. https://www.nature.com/articles/262002a0.pdf
OECD (2019). Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449). https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449
Permanent Mission of The People's Republic of China to The United Nations Office at Geneva and Other International Organizations in Switzerland. (2023). Position Paper of the People's Republic of China on Strengthening Ethical Governance of Artificial Intelligence(AI). http://geneva.china-mission.gov.cn/eng/zclc/202211/t20221116_10976430.htm
LEI Nº 13.709, DE 14 DE AGOSTO DE 2018: Lei Geral de Proteção de Dados Pessoais (LGPD), August 14, 2018. https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm
UNESCO (2023). Recommendation on the Ethics of Artificial Intelligence. https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence
Future of Life Institute. (2023). Pause Giant AI Experiments: An Open Letter - Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
The White House. (2022). Blueprint for an AI Bill of Rights | OSTP | The White House. https://www.whitehouse.gov/ostp/ai-bill-of-rights/
The White House (2023). FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI. The White House. https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/