|

Ética na Justiça: uma reflexão para o judiciário brasileiro

            Com o rápido desenvolvimento e inserção de ferramentas de IA nos tribunais brasileiros, seja fruto do trabalho dos setores de TI para resolução de problemas pontuais na administração de processos e documentos que tramitam diariamente pelas varas, seja pelo incentivo institucional consolidado pela Resolução nº 332/202 e a Portaria nº 271/2020 ambas do Conselho Nacional de Justiça, é um fato a seriedade da adoção de tais inovações e métodos de automação pelo Judiciário brasileiro. E pouco parece que tal atitude se reverterá ao status quo anterior.

            O mundo jurídico não foge aos problemas quase inerentes ao uso das tecnologias de IA, principalmente quando envolvem aprendizado de máquina, ainda que supervisionado. Mesmo com as preocupações institucionais de fornecer algum tipo de diretriz, tal qual as resoluções citadas acima, e até mesmo a criação de uma plataforma de incubação de sistemas de IA próprio do Poder Judiciário – Sinapses –, prevalece ainda uma apressada adoção de tais ferramentas de forma disparata e dispersa pelos diversos tribunais do país. São mais de 110 projetos de IA espalhados nas diversas cortes brasileiras, cujas funções abrangem desde a administração e organização de classes processuais, documentos etc., até o apoio à decisão (CNJ, 2022b).

            Nessa senda, a leitura da obra de Mark Coeckelbergh, “Ética na Inteligência Artificial”, é incontornável pelas questões que nela são levantadas. Não obstante tratem mais do aspecto geral da IA, as questões suscitadas são imprescindíveis para discutir tal tema no poder judiciário, âmbito especialmente sensível às nuances  sociais, econômicas e políticas do uso da IA.

            Na obra citada, uma das primeiras perguntas feitas pelo autor elucida bastante o tipo de reflexão necessária: “Quantas decisões e quanto dessas decisões queremos delegar à IA? E quem é o responsável quando algo dá errado? […] Confiaremos demais na IA?” (2023: 15). Ainda que membros do Judiciário argumentem que tais ferramentas executem muito mais atividades práticas e “braçais”, na tentativa de alcançar a celeridade e efetividade da prestação jurisdicional, dado o grande volume processual enfrentado pelos tribunais (LIMA, 2022: 8), não se deve tomar como garantido a pretensa “objetividade” que sistemas de IA aparentam dispor. Os problemas éticos residem nesta perigosa intersecção das causas e efeitos não intencionais e, muitas vezes imperceptíveis, nas suas consequências, dado que, por exemplo, o viés da máquina pode ser fruto da base de dados usada, originada de programação acrítica ou, até mesmo, pela falta de diversidade nas equipes de desenvolvimento (COECKELBERGH, 2023: 120; 125).

            O discurso da celeridade e “desafogamento” dos tribunais que permeia este processo de inserção da IA no judiciário parece, em primeiro plano, compreensível e justo, mas o que se esconde por trás dessa narrativa certamente são perguntas ainda sem resposta definitiva: “Melhoria para quem? […] Os juízes ou acusados? […] Quem molda o futuro da IA?” (COECKELBERGH, 2023: 17). Certamente, com os pronunciamentos de ministros clamando pelo fornecimento de sistemas inteligentes pelas Big Techs e o desejo de firmar parcerias público-privadas (SINTRAJUFE, 2023), entende-se um agravamento destas mesmas perguntas ainda sem respostas, uma clara assimetria de poder entre as partes (COECKELBERGH, 2023: 159), sem falar na consequência subjacente: a disponibilização da base de dados judicial do país a tais plataformas (Panorama Setorial, 2020: 14-15)

            Sobre este aspecto, a base de dados, outro risco se impõe . É sabido que, no curso dos 10 anos da digitalização processual, o judiciário brasileiro vem sofrendo com a alta taxa de erros nas informações processuais, todavia pouco se vê esta importantíssima circunstância nas discussões sobre a implementação de ferramentas de IA pelas cortes. Como é possível que juízes e servidores possam confiar e utilizar tais sistemas, desenvolvidos através dos bancos de dados processuais que podem facilmente conter erros desapercebidos – sem forte investimento em limpeza de dados? Como confiar também quando são usados bancos de Big Data de fontes não especificadas e transparentes (cf. Panorama Setorial, 2020: 18) ? E mais, há um verdadeiro buraco negro quando se pensa sobre a interação humano-máquina no caso do apoio à tomada de decisão, uma vez que, como bem elucida Mark Coeckelbergh, mesmo sem entender ampla e profundamente as implicações e decorrências do uso de tal ferramenta, os atores continuem utilizando-a corriqueiramente, ao ponto não mais exercer o pensamento crítico – distinguishing jurídico – ou a supervisão necessária do output dado pelo sistema (COECKELBERGH, 2023: 25).

            Ademais, a instrução de pessoas e organizações sobre o uso – quando e como – de algoritmos na tomada de decisão é assunto pouco discutido, principalmente no meio do judiciário, onde boa parte da difusão destas informações e conhecimentos se dá por meio de workshops internos. Estas muitas vezes são exibições simplificadas dos comandos para a pura aplicação prática da ferramenta (cf. manual sigma). Coeckelbergh nos lembra da necessidade de que as informações significativas – e, aqui destaco um tipo destas informações: a ética – sejam amplamente difundidas aos usuários, como também imprescindível facilitar-lhes a interpretação dos resultados propostos pelo sistema – sem abdicar da complexidade envolvida e subjacente na utilização de tais ferramentas (2023: 149).

            A adoção veloz do uso de IA nas tarefas corriqueiras e mais demandantes dos tribunais, já culminando no uso de IAs generativas (ATRICON, 2024) impõe questionar-se sobre a própria abrangência da IA, no sentido de que, tendo em vista alguns dos projetos em voga nas cortes mesclarem automações e programações mais simples com subsídios de sistemas de IA, o limite entre o mundo das tecnologias de automação e os algoritmos inteligentes se torna fugaz e obriga a outro questionamento iminente: tais problemas enfrentados pelas cortes demandam soluções inteligentes ou soluções de automação bem-feitas bastariam? Citando Coeckelbergh novamente, “[…] não só o que deve ser feito, mas também por que deve ser feito, quando deve ser feito, quanto deve ser feito, por quem deve ser feito e qual é a natureza, extensão e urgência do problema” (2023: 136). Tal esforço por parte do poder Judiciário é muito pouco evidente e as justificativas do princípio da celeridade e efetividade processual frágeis e apressadas.

            Nesta esteira, nem se tocou ainda no assunto da responsabilidade pelos erros cometidos com uso dessas ferramentas, o que implica abordar todo o processo de desenvolvimento e uso que se dá, geralmente e preferivelmente, através do trabalho das muitas pessoas envolvidas. O autor do livro “Ética na IA” resume brevemente o dilema da responsabilidade da IA em um quase-aforismo - “[…] many hands, […] many things.” (2023: 106). Todas as decisões técnicas e humanas que perpassam a criação de uma ferramenta de IA e sua utilização desfazem a crença na pretensa “objetividade” da máquina (BUCCI, 2023). Todavia, é o cenário mais corrente a crença acrítica do que é produzido por ela (COECKELBERGH, 2023: 78). O porquê de se questionar o nível aceitável de dependência das ferramentas de automação e algoritmos inteligentes, principalmente no campo sensível da prestação jurisdicional, deve-se a dificuldade na atribuição de responsabilidades de consequências invisíveis porém materiais.

            Por fim, as incertezas do campo nos impelem a olhar o cru aspecto humano e material da tecnologia; os ambientes ditos “sociotécnicos” necessitam de investigações mais profundas sobre os agentes envolvidos, direta e indiretamente, no uso das tecnologias, “[…] [o que] fazem com ela, como a usam, como a percebem e a experimentam, e como a incorporam […]” (COECKELBERGH, 2023:79). A obra dá brecha a uma fenomenologia da tecnologia, necessária no mundo dos ditos “operadores do direito”.

Referências Bibliográficas

ATRICON - Associação dos Membros dos Tribunais de Contas do Brasil. OCDE: TCU é única instituição com uso avançado de inteligência artificial generativa. Publicado em 02 abril 2024. Disponível em: https://atricon.org.br/tcu-e-unica-instituicao-com-uso-avancado-de-inteligencia-artificial-generativa-segundo-a-ocde/

BUCCI, Eugênio. Incerteza, um ensaio: como pensamos a ideia que nos desorienta (e orienta o mundo digital).  Belo Horizonte: Autêntica, 2023.

COECKELBERGH, Mark. Ética na Inteligência Artificial. Título original: AI Ethics; trad. por Clarisse de Souza, Edgar Lyra, Matheus Ferreira e Waldyr Delgado et al.; 192 pp.; Coleção Exit; São Paulo / Rio de Janeiro: Ubu Editora / Editora PUC- Rio, 2023.

CNJ (Conselho Nacional de Justiça). Painel de Projetos de IA no Poder Judiciário. 2022b. Disponível em:<https:www.cnj.jus.brindex.phppage=acymailing_front&ctrl=fronturl&task=click&urlid=25877&userid=1305760&mailid=13056&noheader=1>. Acesso em: 01 maio 2024.

Entrevista II – Dra. Isabela Ferrari. In: Panorama Setorial da Internet, número 1, ano 12, 2020. Disponível em:<https://cetic.br/pt/publicacoes/indice/panoramas>. Acesso em: 01 maio 2024.

Laboratório de Inteligência Artificial Aplicada – Justiça Federal da 3º Região. Manual de Utilização do SIGMA. Disponível em: <https://www.trf3.jus.br/documentos/adeg/Inova/LIAA-3R/SIGMA/TUTORIAL_SIGMA__2_.pdf> Acesso em 04 de maio 2024.

LIMA, Daniela Cenci. Inteligência Artificial na Justiça Brasileira: mapeamento das orientações normativas e diretrizes éticas aplicáveis. ITS, Dezembro, 2022.

SINTRAJUFE - RS. Presidente do STF quer IA no Judiciário com Big Techs; em São Paulo, CNJ já barrou Microsoft por risco à segurança nacional. Publicado em 18/10/2023. Disponível em: <https://sintrajufe.org.br/presidente-do-stf-quer-ia-no-judiciario-com-big-techs-em-sao-paulo-cnj-ja-barrou-microsoft-por-risco-a-seguranca-nacional/>