|

Regulação da IA generativa e metainovação – uma introdução

Por Paola Cantarini e Leonardo Barbosa

De modo geral, quando se trata da temática da regulação e da governança de inteligência artificial (IA), fala-se em, ao mesmo tempo, mitigar os potenciais riscos a direitos e liberdades fundamentais, por um lado, e por outro, não obstar, mas sim incentivar a inovação e a competividade internacional. Esta é também uma preocupação transposta para quando se fala em regular os novos modelos fundacionais e a IA generativa, havendo ainda maiores obstáculos no tocante a sua regulação via heterorregulação (ou seja via regulação pelo Estado) ou autorregulação (soft law, sem força cogente por parte do Estado) tão-somente, caso não seja acompanhada de outras medidas complementares em um sistema de governança multicamadas, abrangendo regulação, ética, compliance, políticas públicas e educação, o que seria essencial para poder falar no desenvolvimento benéfico, seguro e inclusivo de aplicações de IA.

Isto porque, além de trazer maiores dificuldades quanto à imprevisibilidade de seus “outputs” e “incapacidade de controle”, em razão da falta de uma compreensão exata acerca dos seus princípios internos de operação e de como alcançam os resultados apresentados, a regulação sempre estaria um passo atrás da tecnologia, devido à crescente velocidade do seu desenvolvimento, além da dificuldade na definição dos potenciais danos, explicabilidade e na atribuição de responsabilidades. Isso devido à maior dificuldade em saber quais partes e quais dados estão envolvidos em seu desenvolvimento.

Um exemplo paradigmático foi desenvolvido pela empresa “Anthropic”, startup americana de inteligência artificial (IA), fundada por ex-funcionários da OpenAI, com seu modelo de linguagem denominado “Claude”, treinado a partir da proposta denominada de “IA constitucional” “Constitutional AI" (1). Visa-se garantir que a IA seja treinada para ser compatível com os valores humanos e éticos, inspirados em parte na Declaração dos Direitos Humanos das Nações Unidas, bem como nos termos de utilização da Apple, em “melhores práticas” em matéria de confiança e segurança, e em princípios próprios da Anthropic (1). Interessante observar, outrossim, que embora a construção das declarações de Direitos humanos seja uma construção ocidental, e por tal motivo objeto de inúmeras críticas por não considerar outras perspectivas e valores não ocidentais, como conceitos diversos do que se entende por justiça e dignidade humana, por exemplo, a Anthropic afirma que, não obstante a escolha global dos princípios sempre seja subjetiva e influenciada pelas visões do mundo dos investigadores, que estaria preocupada em levar em consideração não só as perspectivas ocidentais, embora não traga esclarecimentos de como faria isto. Também são citados expressamente alguns direitos humanos/fundamentais (liberdade, igualdade e fraternidade), sendo certo que não há que se falar em uma hierarquia acerca de tais direitos, no sentido de considerar alguns importantes e outros nem tanto.

É necessária, pois, uma abordagem crítica, pois a proposta embora traga o nome de “constituição”, por óbvio que não abarca tal conceito, em especial seu fundamento histórico e político, atrelado a processos de luta por direitos, havendo o risco de ser confundida tal proposta tecnológica com o que se denomina de “constitucionalismo digital”, conforme pode-se observar de recente publicação, onde simplesmente os termos são considerados como sinônimos, com total desconsideração dos fundamentos epistemológicos, históricos e sociais de promulgação de um texto constitucional, e do que se entende pelo movimento denominado de “constitucionalismo digital”.

São também apontados riscos específicos ou mais amplos de segurança com os modelos generativos, a exemplo de possibilidade de escrever “malwares”, e-mails de “phishing” mais efetivos para o dano posto que mais convincentes, além de riscos de desinformação, violação de direitos autorais, criação de conteúdo inverídico denominado de “alucinações” (em uma talvez perigosa concepção antropomórfica da IA), resultados enviesados, amplo tratamento de dados pessoais sem consentimento válido ou qualquer outra base legal autorizadora, potencial de ampla substituição do trabalho humano e impacto ambiental, além de riscos potenciais aos direitos humanos e fundamentais, agora incrementados.

Segundo a OCDE, em suma, os principais riscos associados a tais modelos são riscos para os direitos humanos, privacidade, equidade, robustez e segurança, além de vieses, divulgação de informações confidenciais sobre indivíduos e informações associadas a direitos de propriedade intelectual, “fake News”, desinformação, e outras formas de conteúdo manipulado, baseado em linguagens, que podem ser impossíveis de distinguir de informações verdadeiras, "alucinações", podendo tais riscos agora ser constatados em maior escala que abordagens tradicionais, com aumento das ameaças para a democracia, coesão social e confiança pública em instituições.

A OECD aponta para os seguintes riscos: discriminação, exclusão e toxicidade: discurso discriminatório e excludente; vazamento de informações verdadeiras sensíveis; danos causados por desinformação: produção de informações falsas ou enganosas; usos maliciosos, com intenção de causar danos; danos na interação humano-computador: danos devido à excessiva confiança na IA ou por tratar o modelo de IA como se fosse humano; danos de automação, acesso e ambientais: impactos ambientais ou econômicos “downstream”.

Referido documento também traz alguns princípios que deveriam ser observados:

  • Beneficiar pessoas e o planeta (Princípio 1.1) – populações sem acesso a aplicativos de Processamento de Linguagem Natural em seu idioma dominante perdem oportunidades, portanto, o desenvolvimento de modelos e aplicativos de Processamento de Linguagem Natural em idiomas diferentes dos amplamente usados em países líderes em IA deve ser uma prioridade. Preocupações com custos significativos ambientais e financeiros.
  • Valores centrados no ser humano e equidade (Princípio 1.2): respeito aos direitos humanos, valores democráticos e equidade, incluindo instituições democráticas, privacidade e agência humana; importância da seleção e curadoria dos dados de treinamento. Há preocupações com o potencial de desinformação, fake News, reforçar estereótipos prejudiciais, vieses, e manipular opiniões em larga escala. Aponta-se para a problemática de treinamento com dados de grupos dominantes, devendo ser respeitada a diversidade e inclusão, com representação adequada de diversos grupos de forma igualitária a fim de reduzir viés, além da necessidade de auditorias de representatividade de dados e avaliadores humanos. Há, outrossim, preocupação com a privacidade e vazamento e roubo de dados, e violações de segurança.
  • Transparência e explicabilidade (Princípio 1.3): garantia da transparência, incluindo a divulgação de quando são usados dados pessoais, e orientações claras sobre o uso apropriado e avisos sobre uso indevido, permitindo a contestação do resultado.
  • Robustez, segurança e segurança (Princípio 1.4): de acordo com os princípios da OCDE de 2019 a IA deve ser robusta e segura ao longo de todo o seu ciclo de vida sem ocasionar um risco de segurança “irrazoável", havendo uma maior dificuldade em se alcançar tais objetivos com os novos modelos, devendo haver o desenvolvimento de metodologias rigorosas de controle de qualidade e padrões para tais sistemas em todas as etapas de seu ciclo de vida, adequados ao contexto de aplicação, com destaque para as abordagens proativas e centradas no ser humano. São apontados riscos de segurança caso haja uma má utilização, com destaque para a proteção via segurança “por design”.
  • Responsabilidade (Princípio 1.5): aponta-se para a incerteza quanto à responsabilidade e a necessidade de se gerenciar os riscos ao longo do ciclo de vida dos sistemas, com destaque para a proporcionalidade entre os riscos e a necessidade do esforço internacional e multi-stakeholder focado em controle de qualidade e padrões que permitam responsabilidade e controle.
  • Investir em Pesquisa e Desenvolvimento (P&D) (Princípio 2.1): necessidade de mais “benchmarks” e técnicas de avaliação, com critérios como precisão, segurança, explicabilidade, justiça e viés.
  • Promover um ecossistema digital (Princípio 2.2): devido ao custo significativo e ao não acesso por todos, há o domínio de mercado pelas grandes empresas, minando a capacidade de competição, apontando-se para a necessidade de dados verdadeiros e contextuais para o treinamento de tais modelos, e para o risco de produção de um ciclo vicioso em que os sistemas de IA são treinados com dados de qualidade cada vez mais baixa produzidos pelos próprios modelos de linguagem de IA. Outrossim, aponta-se para a necessidade de investimento em recursos linguísticos e repositórios de dados em línguas minoritárias, e para o uso de códigos abertos, para assegurar a transparência e a inclusão.
  • Promovendo um ambiente de políticas propício (Princípio 2.3): os novos modelos de IA devem ser incluídos nas estratégias nacionais de IA e nos planos de ação para incentivar o seu desenvolvimento e a implementação confiáveis, seguros e benéficos.
  • Construindo capacidade humana e preparando para transições laborais (Princípio 2.4): devido a capacidade de uma maior automação de tarefas, aponta-se para o impacto a uma ampla variedade de tarefas e trabalhadores com resultados em termos de perturbação econômica e social, havendo a necessidade de capacitação das pessoas e programas de aprendizado ao longo da vida, além do problema dos denominados “trabalhadores fantasmas”, destacando a necessidade de serem oferecidas vantagens para se garantir a qualidade do trabalho e o compartilhamento dos benefícios de tais modelos de IA.
  • Cooperação internacional, interdisciplinar e multissetorial (Princípio 2.5), além do compartilhamento de melhores práticas.

Por conseguinte apesar da novidade dos novos modelos de IA, há já alguns parâmetros indissociáveis de qualquer tipo de aplicação de IA, como o que se observa da expressão IA good for all, entendendo-se que a IA deverá ser projetada, desenvolvida, implantada e utilizada de maneira segura, human-centered (atualmente evoluindo tal conceito para o mais amplo de life centered ou planet centered, evitando-se abordagens antropocêntricas e sem consideração necessária com o impacto ao meio ambiente), confiável, inclusiva e responsável, de forma a promover o crescimento econômico inclusivo, o desenvolvimento sustentável e a inovação, e ao mesmo tempo proteger os direitos humanos e liberdades fundamentais e promover a confiança pública, bem como de forma a fortalecer os esforços em direção à realização dos Objetivos de Desenvolvimento Sustentável das Nações Unidas.

Acerca de importantes iniciativas, destacamos os denominados "sandbox” (ambiente de teste seguro) regulatórios, permitindo-se testar a aplicação de IA antes de ser colocada no mercado, em um ambiente seguro, a exemplo da proposta da Universidade de Harvard, apostando em um “sandbox” para diferentes tipos de Large Language Models (LLMs), além das lições de reguladores como a Food and Drug Administration (FDA) dos EUA, e da proposta de “sandbox” do Reino Unido.

Segundo o Reino Unido (“Policy paper” – “The Bletchley Declaration”) os novos modelos fundacionais/IA generativa seriam mais preocupantes justamente por serem riscos ainda com maior potencial de desconhecimento, já que suas capacidades não são totalmente compreendidas, dificultando ainda mais sua previsibilidade, além de serem riscos de natureza inerentemente internacional, os quais, pois seriam melhor abordados por meio da cooperação internacional, a exemplo de futuras Cúpulas Internacionais de Segurança da IA, a exemplo dos riscos nas áreas de cibersegurança, biotecnologia, e desinformação. É destacada a importância de um IA inclusiva, no sentido da redução da exclusão digital, devendo a colaboração internacional se esforçar para envolver uma ampla gama de parceiros, com ênfase em abordagens e políticas que possam ajudar os países em desenvolvimento a fortalecer a capacitação em IA com vistas ao crescimento sustentável, com destaque para uma abordagem de governança e regulamentação pró-inovação e proporcional, no sentido de maximizar os benefícios e reduzir os riscos, devendo ser considerada a segurança em todo o ciclo de vida da IA.

Referido relatório é composto por três partes, sendo estas preocupações com as capacidades e riscos da IA, apontando para a necessidade contínua de pesquisar os riscos da IA, e abordando o estado atual de suas potencialidades, além dos riscos que apresentam atualmente, incluindo danos sociais, uso indevido e perda de controle, apontando para os riscos futuros de tais modelos, com base em relatório da Oficina Governamental para a Ciência, que considera as incertezas-chave no seu desenvolvimento, com destaque para os ciberataques ou o desenvolvimento de armas biológicas, perda de controle da IA, perturbação das eleições, vieses, aumento da criminalidade e problemas quanto à segurança online.

Por sua vez, em razão dos novos e mais recentes desenvolvimentos da IA com os modelos fundacionais e o subconjunto específico da IA generativa, a União Europeia, por meio do Parlamento Europeu houve por bem em rever em 14.07.2023 sua proposta inicial do AI Act, introduzindo regras específicas e uma nova seção, o artigo 28b, e impondo um conjunto de obrigações “ex-ante”, seguindo-se a fundamentação geral do AI ACT com base no princípio da prevenção, de forma a garantir que a IA seja segura, ética e transparente.

Isto porque as versões anteriores do AI careciam de obrigações em relação a modelos fundacionais devido à sua novidade, e sua abordagem baseada em casos de uso teria se mostrado ineficaz ou contraproducente para refletir a natureza multipropósito e dinâmica de tais modelos, pois estes teriam a capacidade de serem implantados de forma flexível em contextos diversos, ou seja, ao se limitar esses modelos a casos de uso específicos considerados de Alto Risco (Anexo III) ou Proibidos (Artigo 5) a abordagem seria estática e não flexível, tornando a legislação repleta de limitações e com potencial de ser tornar obsoleta em curto espaço de tempo, além de obstar a inovação.

A IA generativa é definida pelo AI Act no Artigo 28 b (4) como: “sistemas de IA especificamente destinados a gerar, com níveis variados de autonomia, conteúdo como texto complexo, imagens, áudio ou vídeo”, sendo considerada como “um tipo de modelo fundacional”, um subconjunto específico de modelos fundacionais.

Já o modelo fundacional é definido pelo Considerando 60 como: “modelos de IA desenvolvidos a partir de algoritmos projetados para otimizar a generalidade e versatilidade de saída. (Esses) modelos muitas vezes são treinados em uma ampla gama de fontes de dados e grandes quantidades de dados para realizar uma ampla gama de tarefas downstream, incluindo algumas para as quais não foram especificamente desenvolvidos e treinados." Ainda dispõe no Considerando 60 g, que modelos pré-treinados projetados para "um conjunto mais estreito, menos geral e mais limitado de aplicações" não devem ser considerados modelos fundacionais devido à sua maior interpretabilidade e previsibilidade.

Segundo o AI ACT na proposta atual os sistemas de IA generativa estariam sujeitos a três conjuntos sobrepostos de obrigações, obrigações gerais, impostas a todas as aplicações de IA, conforme o grau de risco associado a mesma, obrigações dos modelos fundacionais, e obrigações específicas do modelo de IA generativa, consoante artigo 28 b.

Verifica-se, pois, que o simples desenvolvimento de um sistema de IA generativa ou modelo fundacional não se traduz automaticamente em uma classificação de alto risco.

No que tange às obrigações específicas para sistemas de IA generativa, destacam-se preocupações quanto à violação de direitos de propriedade intelectual, como os direitos autorais, trazendo obrigações para os provedores desses sistemas de: treinar, projetar e desenvolver o sistema de IA generativa de maneira a ter salvaguardas de última geração contra a geração de conteúdo em violação das leis da UE. Documentar e fornecer um resumo detalhado publicamente disponível do uso de dados de treinamento protegidos por direitos autorais. Cumprir obrigações de transparência mais rigorosas (artigo 52), abordando a temática da criação de conteúdo manipulativo, como deep fakes. Os usuários que criaram tal conteúdo devem divulgar que é gerado ou manipulado por IA e, quando possível, indicar o nome da pessoa responsável.

Quanto às obrigações gerais acerca dos modelos fundacionais (artigo 28b) destacam-se: o provedor de um modelo fundamental deve, antes de lançá-lo no mercado ou em serviço: demonstração de mitigação de riscos previsíveis à saúde, segurança, direitos fundamentais, ambiente, democracia e estado de direito; uso apenas de conjuntos de dados sujeitos a uma governança de dados adequada que garanta que os conjuntos de dados sejam adequados e imparciais; design, desenvolvimento e teste do modelo fundamental garantindo desempenho, previsibilidade, interpretabilidade, corrigibilidade, segurança e cibersegurança ao longo de seu ciclo de vida; utilização de padrões para reduzir o uso de energia, recursos e resíduos; desenvolvimento de documentação técnica e instruções compreensíveis para o modelo fundamental, mantendo esses documentos disponíveis para as autoridades competentes por um período de dez anos a partir da introdução no mercado; estabelecimento de um sistema de gerenciamento de qualidade para garantir e documentar conformidade com o AI Act; registro do modelo fundamental em um banco de dados da EU (artigo 60), seguindo as instruções fornecidas no Anexo VIII do Ato de IA; manter a documentação técnica por um período de 10 anos a partir do momento em que um modelo fundamental foi colocado no mercado e manter uma cópia da mesma junto às autoridades nacionais competentes.

Referências

AI ACT da União Europeia. Disponível em:- https://artificialintelligenceact.eu

Época negócios. Disponível em: https://epocanegocios.globo.com/tudo-sobre/noticia/2023/08/concorrente-do-chatgpt-elaborou-uma-constituicao-dos-bots-entenda-por-que-isso-e-importante.ghtml).

OECD Library. Disponível em:  https://www.oecd-ilibrary.org/science-and-technology/ai-language-models_13d38f92-en.

UK Government. Disponível em:  https://www.gov.uk/government/news/prime-minister-calls-for-global-responsibility-to-take-ai-risks-seriously-and-seize-its-opportunities.es-419)

Weidinger, L. et al. (2021.  Ethical and social risks of harm from Language Models, Disponível em: https://arxiv.org/abs/2112.04359).

Notas