Governança de IA e Direitos Fundamentais: uma abordagem democrática, inclusiva e decolonial
A principal fundamentação da presente perspectiva, a ser aqui apresentada para ser posta em debate, é contribuir para concretizar a proteção, promoção e efetivação dos direitos fundamentais por meio da tecnologia, não apenas no âmbito individual, mas também naqueles coletivo e, mais amplamente, social (multidimensionalidade dos direitos fundamentais), trazendo a preocupação com o impacto ambiental em razão de aplicações de IA, como também com demais danos que possa causar, sem contudo, obstar a inovação e competitividade internacional. É que se trata de uma perspectiva de longo prazo e com foco na sustentabilidade.
Diante de tal perspectiva, no âmbito de pesquisa realizada em sede de pós-doutorado no IEA-USP – Cátedra Oscar Sala, desenvolvemos uma proposta de GOVERNANÇA DE IA BR/SUL GLOBAL, trazendo uma abordagem modular/procedimental, tal como consta, destarte, do PL 2338, de 2023. Desta forma, pretende-se alcançar uma proteção proativa aos direitos fundamentais, por meio de quatro camadas interconectadas, envolvendo a regulamentação jurídica, o design técnico, e arranjos tanto éticos como sociais, além da necessidade de políticas públicas. Isso tendo por camada superior a dignidade humana como núcleo essencial de qualquer direito fundamental, sendo que o respeito a estes é essencial para um Estado Democrático de Direito, conjugando-se a heterorregulação com a autorregulação, por meio do “compliance” e de boas práticas, pautadas, também, em princípios éticos, além de políticas públicas.
A IA é uma das mais disruptivas tecnologias contemporâneas, sendo uma verdadeira força ambiental, antropológica e ontológica, já que está a re-ontologizar o mundo, criando novas realidades. No entanto, apesar de propiciar inúmeros benefícios à sociedade, possui um potencial de afronta a diversos direitos fundamentais (1), ensejando como resposta uma proteção contra eventuais violações a tais direitos de forma sistêmica, proativa, abrangente e segura (Hoffmann-Riem, 2020). E isso por meio de algo como a interseccionalidade (Davis, 2011. Benjamin, 2019), através de legislação, “compliance” e boas práticas pautadas em princípios éticos, além de políticas públicas. Assim como o conceito de interseccionalidade para Ângela Davis significa que as afrontas são múltiplas quanto a vieses, de raça, gênero e classe, a alternativa aqui de uma melhor proteção possível a direitos fundamentais, no tocante à aplicações de IA, é no sentido de apostar numa abordagem múltipla, envolvendo os tópicos apontados acima (2).
A lei no caso de aplicações de Inteligência Artificial não pode ser apenas principiológica, mas com incentivos ao “compliance” (3), ou seja, à adoção de boas práticas, procedimentos e códigos de conduta, aliando-se às práticas de autorregulação ao design técnico, em especial, trazendo a obrigatoriedade da elaboração prévia de um dos principais instrumentos de governança, o AIA (4) a Avaliação de Impacto Algorítmico, antes do início da aplicação de IA a ser colocada no mercado, prevenindo danos a possíveis direitos fundamentais, em casos de risco grave ou moderado, em atenção ao princípio da prevenção e à funcionalidade de tal instrumento.
Isso porque apenas princípios éticos, embora importantes, não são suficientes, por lhes faltar “enforcement” (5), correspondendo à força cogente do Direito, além de serem produzidos de forma não homogênea, podendo dar ensejo ao que se tem denominado de “lavagem ética” (Floridi, 2019), quando se prestam a uma mera camuflagem. Em sentido semelhante, portanto, pode-se afirmar que embora seja imprescindível, o “compliance” apenas não é suficiente, e poderá se basear também, sem um critério legalmente estabelecido, em medidas unilaterais e seletivas, em termos de interesses e assimetrias de poder. Com isso, haveria o risco de que o controle da IA apenas via tecnologia pudesse ensejar a perda de regulamentação normativa ou causar fins normativamente indesejáveis (Hildbrandt, 2015).
A proposta de governança de IA, no sentido de uma abordagem democrática, inclusiva e decolonial engloba, outrossim, a construção de um “framework” específico, voltado à análise de riscos a direitos fundamentais em aplicações de inteligência artificial (IA), envolvendo o conceito dos novos princípios do “fundamental rights by design” (direitos fundamentais por design), a exemplo de diversos documentos mais recentes da Comissão Europeia (European Commission) e da Agência dos direitos fundamentais da União Europeia (European Union Agency for fundamental rights - Fra Europa), onde há uma abordagem holística (holistic approach) e é mencionada a necessidade de um “legal frameworks on fundamental rights, ou seja, voltados a direitos fundamentais e para as características sócio-culturais do Brasil como um país do Sul Global (Epistemologias do Sul – Sousa Santos, 2009). Trata-se de um modelo procedimental, por envolver a ponderação e procedimentos tanto no design como nos documentos de “compliance” (boas práticas), trazendo uma maior flexibilidade, sem engessamento do sistema, ou seja, é um modelo não estático, mas flexível e mutável (“co-approach”). Tal modelo teria a vantagem de não obstar a inovação, ao ser mutável e adaptável ao desenvolvimento da tecnologia no futuro. Isto porque ao invés de se falar na existência de um “tradeoff” entre inovação e regulação da IA, de forma a se compatibilizar tais objetivos com a proteção aos direitos fundamentais, falando-se em “responsabilidade pela inovação”, ou “innovation forcing” (Hoffmann-Riem, 2021).
A legislação iria então garantir o respeito aos direitos fundamentais como um objetivo central do processo de construção de softwares e algoritmos, isto é, durante todo o ciclo de vida do sistema, como um requisito para a viabilidade do sistema de inteligência artificial. Ampliar-se-ia assim o “framework”, tal como já consagrado na área de proteção de dados, como “privacy by design” (privacidade por design), “privacy by default” (privacidade de forma automática, sem necessitar de uma conduta por parte do titular de dados), proposta da lavra de Ann Cavoukian, ex Comissária de Informações e Privacidade, Ontário, Canadá (Cavoukian, 2011) e também “privacy by business model” (privacidade por modelo de negócio), como derivação do princípio da “accountability” (prestação de contas e responsabilização), agora ampliado para se tornar um “fundamental rights by design” (direitos fundamentais por design). Essa abordagem seria essencial para se poder falar em Estado de Direito desde a concepção e em “justiça algorítmica”, os quais dependem da proteção adequada aos direitos fundamentais. (6)
Desta forma, acredita-se que, infelizmente, aplicar apenas a Constituição Federal de 1988 nos moldes atuais em diálogo das fontes (7), com base no MCI (Marco Civil da Internet), LGPD (Lei Geral de Proteção de Dados) e EBIA - Portaria MCTI nº 4.617/ 2021 não seria suficiente em termos regulatórios, pois não abrange todas as particularidades e especificidades das aplicações de IA, e assim como foi necessária a promulgação destas leis, também se faz presente a necessidade urgente de uma legislação acerca da IA.
O MCI foi promulgado há aproximadamente dez anos, quando a tecnologia se encontrava em outro estágio de desenvolvimento. Até os anos 2000 tínhamos um modelo passivo (busca orgânica). A partir de 2001 até 2014, surge um modelo ativo, direcionador de conteúdos pelas plataformas digitais. De 2014 em diante ocorre a utilização em massa de algoritmos para impulsionar, selecionar e fazer a perfilização (criação de perfis exatos de cada indivíduo de acordo com dados pessoais capturados) do conteúdo e das pessoas envolvidas. Com isso, um efeito em massa e de maior potencial manipulador acaba por persuadir o usuário em níveis nunca antes vistos. Além disso, esses algoritmos, agora implementados em plataformas de uso amplo e cotidiano, passam a ser ubíquos, integrando-se no dia-a-dia das pessoas, que por falta de letramento tecnológico, carecem de uma consciência crítica atrelada a tal uso massivo (captologia), (8) de viralização de conteúdo e monetização (9).
Na área de proteção de dados, há o reconhecimento expresso pela LGPD - Lei Geral de Proteção de Dados e GDPR – Regulamento Geral de Proteção de Dados da União Europeia, acerca da necessidade de medidas de “compliance”, bem como já reconhecida internacionalmente pela melhor doutrina como essenciais para uma completa proteção dos direitos fundamentais e para a aplicação do princípio da prevenção, a exemplo do DPIA – Relatório de Impacto de Proteção de Dados/Privacidade (10), sendo que neste ponto o Regulamento Europeu de Proteção de Dados, no qual se inspirou nossa LGPD, é mais protetivo e completo justamente por trazer uma padronização e requisitos essenciais para a elaboração de tais documentos. Os documentos internacionais da União Europeia podem então colaborar para a construção de uma fundamentação teórica importante, diante de um histórico mais antigo da proteção de dados pelos países europeus, com leis neste sentido desde a década de 1970.
A ausência de incentivos a medidas de “compliance”, bem como de um rol mais extensivo de tais medidas, além da ausência de procedimentalização para sua elaboração são pontos passíveis de crítica na LGPD, considerada como de nível fraco de proteção, bastando uma análise crítica neste sentido de ambos os instrumentos jurídicos, em termos de extensão, profundidade e nos aspectos já apontados (11), com previsão de poucos instrumentos de boas práticas e “compliance”, comparando-se com o nível europeu, o que poderia contribuir para menos interpretações dúbias e insegurança jurídica no tocante a alguns pontos da nossa LGPD. É o que pode ser observado, por exemplo, quanto à compreensão não homogênea da doutrina especializada e pautada, em alguns casos, em uma análise gramatical e não funcional do instituto jurídico, acerca da obrigatoriedade ou não do DPIA, de quem deveria elaborar, quando e como elaborar, justamente por falta de técnica legislativa e maiores cuidados da LGPD nestes pontos, ou seja, faltando a procedimentalização e requisitos mínimos para tal elaboração, apesar de suas inúmeras qualidades como marco legislativo imprescindível.
É fundamental, portanto, que a lei traga a obrigatoriedade, a procedimentalização e os requisitos para a elaboração da AIA – Avaliação de Impacto Algorítmico -, sendo que este último documento deverá ser elaborado de forma prévia, independente (legitimidade), ou seja, por uma equipe interdisciplinar, multicultural e independente, assim contribuindo para a diversidade epistêmica, democratização e inclusão (abordagem “co-approach”) (12), em casos de risco alto e moderado envolvendo aplicações de IA e em casos de estar presentes determinadas vulnerabilidades específicas, em contextos de países do Sul Global.
Diversos processos de revisão e elaboração das “AIA” são controlados e determinados pelos que tomam as decisões em tal processo algorítmico, com menos ênfase na consulta de perspectivas externas, incluindo as experiências dos mais afetados pelo desenvolvimento algorítmico, podendo gerar documentos de avaliação enviesados e parciais. Por conseguinte, é essencial que a equipe responsável pela produção e revisão de tais instrumentos de “compliance” possua as seguintes características, para se falar em legitimidade e diversidade epistêmica: transdisciplinaridade, multiculturalismo, independência, autonomia, holismo e expertise, ou seja, conhecimentos específicos de Direito, Ética, Governança, Teoria dos Direitos Fundamentais, e por conseguinte, do princípio da proporcionalidade e procedimento da ponderação que são indispensáveis para a resolução concreta, correta e responsável quando diante dos denominados “hard cases”, casos de difícil solução por envolverem colisões de normas de direitos fundamentais, a exemplo da LGPD ao prever a elaboração do LIA – Avaliação do Legítimo Interesse trazendo a previsão do teste de proporcionalidade.
Ainda a legislação deverá obrigatoriamente prever e trazer incentivos fiscais, e/ou por meio de doações a pequenas empresas/startups para realização de “compliance”, como forma de estímulo à inovação, a obrigatoriedade da revisão humana de decisões automatizadas – em casos de alto risco e moderado de aplicações de IA, possibilidades de certificações (13), além da necessidade de políticas públicas e treinamento das pessoas cujos empregos estarão sob risco (em especial, tarefas repetitivas, facilmente automatizadas), requalificadas para “novas funções”, pois isto demanda tempo, dinheiro, e segundo alguns autores ensino de nível superior. Além disso, também há necessidade de incentivos em educação de qualidade, alfabetização digital, cidadania e conscientização da sociedade civil, acerca dos benefícios e riscos da IA, em especial incentivos nas áreas de humanidades e pensamento crítico, pois há um desequilíbrio e defasagem neste lado da balança, já que há muitos incentivos em práticas de automação e ensino voltado a metas, mas não ao pensamento inter/transdisciplinar, na forma de bolsas de estudo para apoio à pesquisa científica desta maneira. A lei em parte sim, poderia trazer tais reduções de impactos ao prever os incentivos acima explicitados além da governança pautada no aspecto da interseccionalidade.
A Comissão Europeia (European Commission) consagra a importância de uma abordagem holística (“holistic approach”) para enfrentar os desafios colocados pela IA, com destaque para os “legal frameworks on fundamental rights”, ou seja, o estabelecimento de “frameworks” voltados a direitos fundamentais, sendo que apenas com tal respeito é possível se falar em “justiça algorítmica”.
Em sentido complementar, o Relatório enviado à Assembleia Geral da ONU pelo seu Relator Especial sobre liberdade de opinião e expressão de 2018 afirma que "as ferramentas de IA, como todas as tecnologias, devem ser projetadas, desenvolvidas e utilizadas de forma a serem consistentes com as obrigações dos Estados e as responsabilidades dos atores privados sob o direito internacional dos direitos humanos" (Assembleia Geral da ONU, 2018). No mesmo sentido, a Declaração de Toronto (2018), com destaque para o direito à igualdade e à não-discriminação em sistemas de IA e as Diretrizes Éticas desenvolvidas pelo Grupo de Especialistas de Alto Nível da UE sobre IA (AI HLEG), ao postular por uma IA confiável, fundada na proteção dos direitos fundamentais, na esteira da Carta da UE, e na Convenção Europeia sobre Direitos Humanos (CEDH).
Ainda segundo a Declaração de Toronto, deverá haver uma garantia de que grupos potencialmente afetados e especialistas sejam incluídos como atores com poderes decisórios sobre o design, e em fases de teste e revisão; revisão por especialistas independentes; divulgação de limitações conhecidas do sistema - por exemplo, medidas de confiança, cenários de falha conhecidos e limitações de uso apropriadas.
Alguns documentos internacionais trazem a previsão expressa acerca da “AIA” com foco em direitos fundamentais e humanos (DF/DH ), com destaque para:
Conselho da Europa: prevê uma versão ampla da avaliação de impacto, semelhante à AIDH - Avaliações de Impacto em Direitos Humanos: ‘’Unboxing AI: 10 steps to protect Human Rights’’ (setor público) (https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/1680946e64);
Relatório do Relator Especial das Nações Unidas para a Promoção e Proteção do Direito à Liberdade de Expressão e Opinião acerca de IA e seus impactos sobre as liberdades: prevê a obrigatoriedade de se garantir uma manifestação de ‘’transparência radical’’, permitindo que os sistemas sejam escrutinados e desafiados da concepção à implementação, por meio de um processo de deliberação pública com revisão por organizações ou consultores externos, que sejam afetos, e com expertise em direitos fundamentais e humanos (https://www.oas.org/pt/cidh/expressao/);
“Governing data and artificial intelligence for all - Models for sustainable and just data governance” do Parlamento Europeu, de julho de 2022, European Parliamentary Research Service, trazendo a perspectiva de “data justice”, se preocupando com a elaboração de “human rights impact assessments” por priorizar direitos, além de apostar na criação de modelos alternativos de governança que incluam formas locais de soberania digital, como a indígena (“Defining datas’s potencial as a public good”, p. 05, item 1). Aponta ainda para a importância do constitucionalismo digital, por oferecer uma linguagem de direitos e para poder desafiar excessos tanto do poder público como do privado, trazendo o aspecto da diversidade, inclusão, e também para se evitar a fragmentação e possíveis interpretações conflitantes diante de diversos instrumentos regulatórios (14).
Destacam-se, ainda, os relatórios e documentos elaborados por órgãos como a Federal Trade Comission (FTC), a National Telecommunications and Information Administration (NTIA), o Future of Privacy Forum, European Union Agency for Fundamental Rights (FRA), e a Autoridade Holandesa de Proteção de Dados (Autoriteit Persoonsgegevens), todos com foco em “frameworks” de direitos fundamentais.
Chamamos a atenção para alguns exemplos pontuais de uma abordagem denominada “life centered AI” (mais ampla que apenas “human centered AI”, tais como a iniciativa da Costa Rica (compromisso com a proteção ambiental e implementação de técnicas agrícolas de precisão, incluindo o uso de zangões e imagens de satélite para otimizar o rendimento das colheitas e reduzir o uso de pesticidas) e a da China (implementação de câmeras alimentadas por IA para monitorar e proteger espécies ameaçadas, tais como pandas, leopardos da neve e tigres siberianos). Isto porque embora a perspectiva “human centerd AI” seja importante, por significar o controle do ser humano da tecnologia e o respeito aos valores humanos, não se mostra mais suficiente, e poderia ser fragilizada por uma limitação da perspectiva antropocêntrica. (15)
Há uma grande falta de diversidade epistêmica na área de IA pela falta de exigência de trabalho de pesquisa inter/transdisciplinar, e pela ausência nas discussões de pessoal qualificado na área das humanidades, com relação à temática da IA e de proteção de dados, refletindo tanto em questões como a sub-representação de pessoas que respondam por tais áreas, além de sub-representação nas discussões internacionais de países do Sul Global.
Interessante observar que a mesma perspectiva acaba de ser apresentada pelo Governo Federal, pela Secretaria de Governo Digital (SGD) do Ministério da Gestão e Inovação, ao lançar o Programa de Privacidade e Segurança da Informação (PPSI), mencionando expressamente a criação de um “framework” de Privacidade e Segurança da Informação, composto por um conjunto de controles, metodologias e ferramentas de apoio, tal como publicado no portal da SGD. (16)
Por outro lado, a UNESCO (17) no documento “Recommendation on the Ethics of Artificial Intelligence” aponta para a necessidade de “frameworks” para assegurar que as tecnologias emergentes possam beneficiar toda a humanidade, embora ainda atrelada à perspectiva do “human-centered” AI, e sem “enforcement”, já que estamos falando de princípios éticos apenas, com destaque para a menção da proteção de direitos fundamentais, do princípio da proporcionalidade e da necessária observância do contexto específico de aplicação da IA, “verbis:”
“Embora todos os valores e princípios descritos abaixo sejam desejáveis per se, em qualquer contexto prático, pode haver tensões entre estes valores e princípios. Em qualquer dada situação, será necessária uma avaliação contextual para gerir potenciais tensões, tendo em conta o princípio da proporcionalidade e em conformidade com direitos humanos e liberdades fundamentais. Em todos os casos, quaisquer possíveis limitações aos direitos humanos e às liberdades fundamentais devem ter uma base legal, e ser razoáveis, necessárias e proporcionais, e coerentes com as obrigações dos Estados ao abrigo do direito internacional. Para navegar judiciosamente em tais cenários, será normalmente necessário o envolvimento com um vasto leque de partes interessadas apropriadas, recorrendo ao diálogo social, bem como à deliberação ética, à devida diligência e à avaliação de impacto”.
A questão principal aqui, novamente, é que diversos documentos como vemos dos exemplos citados, referem-se a alguns possíveis direitos fundamentais afetados, como - a privacidade -, e limitam-se a apontar alguns dos requisitos de uma IA de confiança. Pode-se constatar tal fragilidade ao analisar os seguintes documentos: o próprio documento citado anteriormente, da lavra do Governo Federal, elaborado pela Secretaria de Governo Digital (SGD) do Ministério da Gestão e Inovação, ao lançar o Programa de Privacidade e Segurança da Informação (PPSI), a própria LGPD que não traz todos os possíveis direitos fundamentais afetados; alguns dos projetos de leis que discutem a temática da IA no Brasil, com destaque para o PL 2120, além dos princípios do “privacy by design” e “privacy by default” que vão no mesmo sentido e também a elaboração original dos princípios do “fundamental rights by design”.
Neste sentido, apontamos para a necessidade de uma abordagem não apenas centrada no ser humano (“human centered AI”), mas na própria vida em geral, a referida “life centered AI”, considerando a multidimensionalidade dos direitos fundamentais e humanos, trazendo o enfoque não apenas em direitos individuais, mas coletivos e sociais, para se ter uma proteção adequada também ao meio ambiente. Um segundo ponto essencial seria a formulação de novos princípios do “fundamental rights by design”, com foco no contexto sócio-cultural de países do Sul Global e que abranjam uma possível afronta a todos os direitos fundamentais potencialmente afetados, já que possuem maiores fragilidades em termos democráticos, institucionais, de proteção de direitos fundamentais de parcelas da população vulnerável, ausência de produção de tecnologia, concentrando-se na maior parte em ser apenas consumidor da mesma. Agrava-se, a nosso ver, a situação pela ausência, no Brasil, de uma verdadeira Corte Constitucional, nos moldes adotados pelos demais países que se redemocratizaram e reconstitucionalizaram após a Segunda Guerra Mundial.
A proposta de governança democrática, decolonial e inclusiva, assim, leva em consideração conceitos vinculados ao Sul Global, às Epistemologias do Sul, e, pois, outras concepções não eurocêntricas, não antropocêntricas de dignidade humana, justiça e direitos humanos, no sentido de uma proposta sustentável e de “planet-centered AI”, abrangendo uma perspectiva holística e sustentável. Com isso, entendemos que tal proposta traria benefícios à sociedade em geral, com uma proteção adequada aos direitos fundamentais, ao Estado Democrático de Direito, e também às empresas, ao permitir a redução do risco do negócio, aumento da eficiência com redução de possíveis sanções e processos judiciais, além de contribuir para o fortalecimento da marca e reputação empresarial, já que estará agindo com base nos princípios da boa-fé, transparência, confiança e comportamento responsável, permitindo prestação de contas e apuração de responsabilidades. Haverá também o aumento da competitividade ao atraírem clientes que valorizam o comportamento ético, confiável e responsável.
Acerca da necessidade de uma abordagem “planet centered AI” aponta Mark Coeckelbergh para a importância de se levar em consideração no desenvolvimento das políticas com base em IA o contexto local, e para a superação da visão antropocêntrica, considerando-se os impactos da IA para os animais e meio-ambiente (Coeckelbergh, 2022).
Em vez da singularidade, afirma-se a multiplicidade, por meio de um necessário salto, “da Amazon à Amazônia”. Trata-se de imaginar uma inteligência artificial antropófaga, ou tropicalista, no sentido do desenvolvimento de uma IA inclusiva, democrática, decolonial, multicultural e pós-eurocêntrica, em um sentido, portanto, que seja mais benéfico à vida, ao invés de mortífero, ameaçador até da existência do nosso planeta.
Notas
(1) Neste sentido ver: Bradley, Wingfield, 2020, European Union Agency for fundamental rights, 2020.
(2) Acerca dos vieses múltiplos consultar entre outros os seguintes autores: Virginia Eubanks, Universidade de Albany, Safiya Umoja Noble, Universidade da Califórnia, Latanya Sweeney, Universidade de Harvard)
(3) “Compliance” pode ser conceituado por medidas, boas práticas e adoção de regras e procedimentos dentro das empresas ou órgão governamentais, com o objetivo de mitigar riscos e adotar medidas de segurança. Fala-se que estar em “compliance” com a legislação de forma a respeitar suas diretrizes e princípios e adoção de boas práticas no mesmo sentido, de forma preventiva, a fim de se evitar a ocorrência de danos. Neste sentido ver o artigo: https://www.direitoempresarial.com.br/direito-digital-e-compliance-o-que-e-e-qual-sua-importancia . Também a LDPG – Lei Geral de Proteção de Dados traz a previsão de boas práticas nos seus artigos 50 e 51, nos seguintes termos: “Art. 50. Os controladores e operadores, no âmbito de suas competências, pelo tratamento de dados pessoais, individualmente ou por meio de associações, poderão formular regras de boas práticas e de governança que estabeleçam as condições de organização, o regime de funcionamento, os procedimentos, incluindo reclamações e petições de titulares, as normas de segurança, os padrões técnicos, as obrigações específicas para os diversos envolvidos no tratamento, as ações educativas, os mecanismos internos de supervisão e de mitigação de riscos e outros aspectos relacionados ao tratamento de dados pessoais”.
(4) Acerca do documento AIA consultar: Conselho da Europa: ‘’Unboxing AI: 10 steps to protect Human Rights’’; Relatório do Relator Especial das Nações Unidas para a Promoção e Proteção do Direito à Liberdade de Expressão e Opinião acerca de IA ;“Governing data and artificial intelligence for all - Models for sustainable and just data governance” do Parlamento Europeu, de julho de 2022, European Parliamentary Research Service; Centro de Ética e Inovação de Dados do Reino Unido (importância do respeito aos direitos fundamentais); Diretiva sobre Tomada de Decisão Automatizada do governo canadense (The United Kingdom's Centre for Data Ethics and Innovation).
(5)https://dictionary.cambridge.org/pt/dicionario/ingles/enforcement;https://www.occ.pt/fotos/editor2/RevistaTOC114.pdf
(6) As ferramentas de “privacy by design” e “privacy by default” estão previstas pelo GDPR na Consideranda 78 e no artigo 25, ao tratar dos princípios relacionados ao processamento de dados desde a sua criação, bem como em seus artigos 24, 25, 32 e 42. Na LGPD, há diversas interpretações conflitantes na doutrina acerca da previsão expressa ou não de ambos os princípios, havendo posições que apontam para tal previsão no art. 46 caput e § 2º, enquanto outras sustentam não haver previsão expressa, mas que ela seria uma decorrência dos princípios do art. 6º da LGPD. Entre alguns documentos que frisam tal proposta de “fundamental rights by design” e de elaboração do documento “Avaliação de Impacto Algorítmico” - AIIA com foco na proteção de direitos fundamentais, destaca-se: “Governing data and artificial intelligence for all - Models for sustainable and just data governance” do Parlamento Europeu, de julho de 2022 (https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2022)729533) trazendo a perspectiva de “data justice”, se preocupando com a elaboração de “human rights impact assessments” por priorizar direitos, além de apostar na criação de modelos alternativos de governança que incluam formas locais de soberania digital como a indígena (“Defining datas’s potencial as a public good”, p. 05, item 1). Aponta ainda para a importância do constitucionalismo digital por oferecer uma linguagem de direitos e para poder desafiar excessos tanto do poder público como do privado, trazendo o aspecto da diversidade, inclusão, e também para se evitar a fragmentação e possíveis interpretações conflitantes diante de diversos instrumentos regulatórios. Acerca do potencial de afronta pela IA a todos os direitos fundamentais destacamos: BRADLEY, WINGFIELD, 2020, e o documento de 2020 denominado “Getting the future right - Artificial intelligence and fundamental rights”, da lavra da “European Union Agency for fundamental rights”, https://fra.europa.eu/sites/default/files/fra_uploads/fra-2020-artificial-intelligence_en.pdf.
(7) Ver neste sentido Claudia Lima Marques que trouxe tal expressão para o Brasil, tendo sido criado o conceito por Erik James, conectando principalmente o Código de Defesa do Consumidor e o Código Civil, mas também ampliado o conceito para o que se pretende aqui argumentar.
(8) O termo captologia foi cunhado pela primeira vez por B.J. Fogg, quando de seu doutorado, em meados de 1990, sendo fundado um laboratório na Universidade de Stanford/EUA vinculado a tais pesquisas, denominado de “Persuasive Tech Lab”. Captologia significa o maior potencial de manipulação comportamental e emocional por meio de novas tecnologias, como a IA, utilizada em redes sociais por exemplo, pelo seu potencial de virilizar conteúdo considerado como “fale News”e discursos de ódio, potencializada pela característica da ubiquidade ou seja, a IA está sendo utilizada em diversos aspectos da vida social e muitas pessoas perdem ou não dispõem de tal consciência. Relaciona-se com as temáticas trabalhadas por autores como Eli Parisier em seu livro "O filtro invisível: o que a internet está escondendo de você” (PARISIER, 2012), ao falar de filtros bolhas, câmaras de eco, salas espelhadas e moldura ideológica, que ocorrem com a criação de filtros formados por algoritmos que personalizam o conteúdo e resultado de pesquisas e também nas redes sociais. Há com isso um incremento do risco de homogeneização, polarização, manipulação de comportamentos e emoções dos usuários e de segregação ideológica. Isto ocorreria devido ao reforço a visões similares e unilaterais que reforçam tal ponto de vista e minam o discurso e diálogo democrático. É o que aponta Luciano Floridi, no livro “Onlife Manifesto - Being Human in a Hyperconnected Era” (FLORIDI, 2015) falando em riscos para os processos democráticos, normas e direitos, começando com a liberdade de expressão, já que as esferas públicas são cada vez mais controladas pelas corporações, com destaque para o risco de “censura corporativa” - ou seja, limitações na expressão online imposta, por exemplo, pela Apple, Facebook, Google, sendo uma censura tanto estética como política, a exemplo de censura a fotografias de mulheres com seios de fora, ou ao se limitar o conteúdo produzido por Drag Queens, por serem consideradas falas agressivas, sem se observar o contexto de elaboração de tal linguagem, sem conseguir detectar a intenção e a motivação, ou seja, a moderação de conteúdo realizada pela IA nas redes sociais não é capaz de reconhecer o valor social de determinado conteúdos. Neste sentido ver pesquisa realizada pela Internetlab (https://internetlab.org.br/pt/noticias/drag-queens-e-inteligencia-artificial-computadores-devem-decidir-o-que-e-toxico-na-internet/).
(9) Acerca de tais comentários ver: PARISIER, Eli. O filtro invisível: o que a internet está escondendo de você, Rio de Janeiro: Zahar, 2012; PASQUALE, “The Black Box Society: The Secret Algorithms That Control Money and Information”, Harvard University Press; 2016), ZUBOFF, Shoshana. “The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power”, PublicAffairs; 2020; O’NEIL, Cathy, “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy”, Paperback, 2017.
(10) Consultar acerca de tais modelos de documentos de “compliance”: LGPD, artigos: artigos 5º, inciso XVII, e 38; ver ainda Opinion do Art. 29 WP, tendo em vista a previsão do RIPD no GDPR: ARTICLE 29 DATA PROTECTION WORKING PARTY. Guidelines on Data Protection Impact Assessment (DPIA) and determining whether processing is “likely to result in a high risk” for the purposes of Regulation 2016/679. Disponível em: (https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=611236); Art. 29 WP. Guidelines on Data Protection Impact Assessment (DPIA) and determining whether processing is “likely to result in a high risk” for the purposes of Regulation 2016/679. Disponível em: [https://ec.europa.eu/newsroom/article 29/item-detail.cfm?item_id=611236). e do LIA - Avaliação do Legítimo Interesse (artigo 10 da LGPD), como modelos do LIA entre outros consultar: https://nbcc.police.uk/images/Example_Legitimate_Interest_Assessment_-_Brighton_and_Hove.pdf; LIA template – ICO – Information Commissioner’s Office; ver ainda: https://iapp.org/resources/article/guide-to-the-gdpr-legitimate-interests/; VAINZOF, Rony. Disposições preliminares: XVII – relatório de impacto à proteção de dados sociais. In: NÓBREGA MALDONADO, Viviane; OPICE BLUM, Renato (coord.). Lei Geral de Proteção de Dados Comentada. São Paulo: Thomson Reuters Brasil, 2019. p. 126-130. ISBN 978-85-5321-393-1; consultar também: https://www.dataprivacybr.org/wp-content/uploads/2021/10/O-legitimo-interesse-na-LGPD.pdf.
(11) Ver também: Zanatta, Rafael, REDE 2017, I Encontro da Rede de Pesquisa em Governança da Internet, Proteção de dados pessoais como regulação de risco: uma nova moldura teórica?)
(12) Neste sentido o documento do AI Now Institute, “Report 2018” (https://ainowinstitute.org/publication/ai-now-2018-report-2), apontando para a estrutura de Avaliação de Impacto Algorítmico (AIA) compreendendo o envolvimento da comunidade como parte integrante de qualquer processo de “revisão”, tanto como parte do estágio de projeto quanto antes, durante e depois da implementação, com o fim de se garantir a legitimidade, imparcialidade e independência da produção de tal documento de “compliance”. Nesta mesma linha a Declaração de Toronto (2018) prevendo que deverá haver uma garantia de que grupos potencialmente afetados e especialistas sejam incluídos como atores com poderes decisórios sobre o design, e em fases de teste e revisão; deverá ainda haver a revisão por especialistas independentes; divulgação de limitações conhecidas do Sistema, ao contrário do que se observa na maioria dos processos de revisão e elaboração do documento de “compliance” denominado Avaliação de Impacto Algoritmico (AIA) pois são produzidos pelas empresas que produzem a IA, sem ênfase na consulta de perspectivas externas, incluindo as experiências dos mais afetados e grupos vulneráveis.
(13) Exs: Código de Proteção de Dados das companhias alemãs de seguros, elaborado em conjunto pela Confederação da Indústria de Seguros Alemã e pelas autoridades alemãs responsáveis pela proteção de dados, e pela Central dos Consumidores; a lei alemã de segurança da TI.
(14) https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2022)729533.
(15) “Life centered”, portanto, no sentido de uma proposta de IA sustentável, por trazer a preocupação não apenas com a proteção de direitos fundamentais no âmbito individual, mas coletivo e social, traduzindo-se na multidimensionalidade dos direitos fundamentais, na linha do que se tem chamado de “Constitucionalismo digital” defendido entre outros por Edoardo Celeste, Gunther Teubner e Gilmar Mendes, frisando a necessidade de um reequilíbrio de poder na arena digital e na proteção adequada de direitos fundamentais não apenas no âmbito individual mas coletivo e social. O documento “Governing data and artificial intelligence for all - Models for sustainable and just data governance” do Parlamento Europeu, de julho de 2022 aponta para a necessária observância do Constitucionalismo digital na temática da IA, entendido como uma verdadeira ideologia constitucional que se estrutura em um quadro normativo de proteção dos direitos fundamentais e de reequilíbrio de poderes na governança do ambiente digital ((https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2022)729533) Desta forma, ao invés de se ter a abordagem do homem como dominador e explorador da natureza, teríamos o reconhecimento da interdependência entre ambos, como aponta por sua vez Bruno Latour (LATOUR, 2020), falando na perspectiva terrestre demandando uma nova distribuição das metáforas, das sensibilidades, uma nova “libido sciendi” fundamental, e a reordenação dos afetos políticos. Ao invés de propostas com base em um convencionalismo de cima e ocidental, dentro de uma lógica da colonização digital e da monocultura, visa-se o desenvolvimento de uma IA levando-se em consideração a “co-construção” pelos grupos vulneráveis, afirmando-se seu direito de contribuir e auferir benefícios dos ecossistemas de dados, sua autodeterminação informativa, e sua soberania de dados, como forma de controle sobre os dados pessoais. Tal proposta se fundamenta em uma perspectiva de decolonização da governança de dados e da inteligência artificial, e, portanto, de uma IA democrática e inclusiva, a exemplo do modelo de governança de dados Maori da Nova Zelândia, e do documento “Global Indigenous Data Alliance”, “CARE Principles of Indigenous Data Governance”, reconhecendo a soberania de dados indígena (https://www.gida- global.org). Tal perspectiva envolve também uma decolonização do imaginário social, já que até o momento a governança de dados se pautou por uma matriz colonial e eurocêntrica, sem levar em consideração os modos de vida e as epistemologias próprias do povo indígena e da população afro-descendente, ou seja, os dados pessoais são produzidos por terceiros, na maior parte das vezes, fora de tal representatividade adequada, com a reescrita de suas histórias e valores, ocasionando, pois, a desconexão com tais contextos e a possível ocorrência de bias”, já que há uma definição e conceituação através do olhar e das narrativas de colonização, em um estado de dependência do Estado colonizador. Ver ainda: Ben Shneiderman, “Human-Centered AI”, Oxford University Press, 2022.