
IA Generativa e Desafios da Interação com o Poder Judiciário
Por Thiago Felipe S. Avanci
A inteligência artificial (IA) se manifesta por diversas formas: é por ela que ocorrem as sugestões das interações no Facebook, os resultados de busca no Google e, até mesmo o traçar do caminho do carro autômato, para não mencionar outras tantas aplicações.
Mas, sem exagero, o mundo foi pego de assalto pela novidade apresentada pela empresa OpenAI, que criou o Chatbot ou ChatGPT ou Assistant (https://chat.openai.com/). São 100 milhões de usuários nos dois primeiros meses de vida do app. Em novembro de 2023, os números dão conta de 100 milhões de usuários semanais.
E o que é o ChatGPT? É uma ferramenta de IA generativa que produz textos na exata medida do que a pessoa solicitar. As IA Generativas, como se pode deduzir, criam conteúdo a partir de comandos simples dos usuários. Pode-se pedir para fazer, por exemplo, um comparativo inusitado: a entrada de Napoleão em Paris e a entrada de Júlio Cesar em Roma e a ferramenta irá criar um texto conectando os tópicos de interesse em questão. Percebe-se a vantagem tática das IAs generativas sobre as pesquisas tradicionais, já que achar uma pesquisa – como no exemplo dado acima – com estas exatas características, seria difícil ou improvável. No entanto, o ChatGPT é capaz de produzi-la em segundos, na forma de um texto completo. Esta ferramenta de IA Generativa produz textos com linguagem compreensível e que emula a linguagem, faz tabelas, faz códigos de programação, listas, entre outras.
A diferença do ChatGPT para as ferramentas de pesquisa tradicionais (os indexadores de resultados como o Google, o Bing e o Yahoo) consiste na forma do resultado: o ChatGPT apresenta um resultado escrito e pronto, utilizando Large Language Models, ao passo que as ferramentas de busca tradicionais, simplesmente indexam os resultados desejados. Não há dúvida de que os buscadores têm apresentado melhorias, como por exemplo o Google, que responde diretamente perguntas objetivas feitas pelo usuário, por meio de referências da internet.
Com o propósito de acompanhar as inovações, a ABC (Google) e Microsoft (Bing) correram para apresentar integrações em seus sistemas de busca, com seus chatbots: Google já está disponibilizando a ferramenta de IA de nome Bard, ao passo que o Bing já está usando uma ferramenta de IA derivada do próprio código produzido pela OpenAI. Para se compreender o tamanho do negócio, a Microsoft decidiu investir entre US$10 e US$20 bilhões nessa compra da tecnologia, para integrá-la ao Bing e ao MS Teams.
Para produzir o texto, o ChatGPT da OpenAI trabalha com uma rede de aprendizado de máquina altamente eficiente, capaz de ler textos e extrair o resumo deles, parafraseando-os. Vem daí a sua capacidade de montar os novos textos. A ferramenta (1) realiza a compreensão do pedido no prompt; (2) a interpreta, selecionando “hot/key words” mapeando um modelo interno não semântico a partir de uma janela de tokens; (3) realiza a leitura do seu banco de textos; (4) interpreta o conteúdo do banco de dados, selecionando as “hot/key words” do banco, cruzando as informações a partir do algoritmo e mapeando um modelo interno não semântico; (5) elabora um texto, compilando ideias dos textos, e (6) aplica um filtro para evitar textos “incorretos na visão do construtor do sistema, tudo isso em questão de segundos.
Em uma análise mais minuciosa do processo de evolução da “tokenização”, a partir do input do usuário, o Chat GPT gera um output criado matematicamente/estatisticamente por um processo de leitura de dados a partir de janelas de contexto para esse processo. Para se ter uma ideia, o chat GPT-3, da OpenAI, usava 8.192 tokens enquanto a versão 3,5 usava 16.385, a versão 4 usava 32.768 tokens e, na última versão, 4o (omni) são 128.000, evolução havida entre setembro de 2021 a maio de 2024. Nesta última versão, para cada ponto chave do input do usuário gera uma análise de 128k de palavras, o que equivale a 300 páginas de texto. Ou seja, para cada ponto gerado, esta versão da IAGen analisa 300 páginas de texto para gerar uma resposta.
O Chat GPT (Generative Pre-Trained Transformer) foi criado no ano de 2019, pela empresa OpenIA, mas somente chegou ao Brasil de forma impactante no final de 2022, com a finalidade de responder às perguntas de acompanhamento, utilizando o Reinforcement Learning from Human Feedback (RLHF), de modo a seguir os métodos do InstructGPT e, assim, aplicar as instruções em prompt com o objetivo de fornecer uma resposta detalhada. Contudo, cabe ressaltar que tal ferramenta utiliza como base um modelo de linguagem deep learning (aprendizagem profunda). Dessa forma, esse chatbot tem o poder de formular desde respostas simples a uma petição ou sentença em segundos, bastando apenas que a pessoa formule os questionamentos ou dê os comandos certos, tornando-se uma ferramenta útil aos operadores do direito, desde que o façam com a devida atenção, uma vez que esse programa, ao se ver sem as respostas certas, formula resultados incorretos e que podem levar um desatento a uma situação desagradável por não identificar o ocorrido, sujeitando-se às consequências negativas da confiança absoluta em uma inteligência artificial.
Parafraseando o Dr. Frankenstein, “mas esta ferramenta está viva”? Não está! A comunidade científica mantém-se, com razão, cética para descartar qualquer remota possibilidade de uma IA viva e consciente. Aliás, pode-se lembrar daquela história bizarra de abril de 2022, da IA experimental do Google, o LaMDA (um pré-Bard), que afirmou ser consciente e estaria sendo mantido cativo – e o engenheiro da Google responsável pelos testes, teria acreditado. O ChatGPT deu um importante passo para prevenir esse tipo de situação. Perguntado ao ChatGPT: “Você está vivo?”. Eis a resposta: “Não, eu sou uma inteligência artificial criada para ajudar a responder perguntas e fornecer informações. Eu não tenho consciência de mim mesmo e não posso ter experiências de forma semelhante a um ser humano.”.
Esta peça tecnológica coloca a pesquisa acadêmica em xeque, tendo surpreendido a todos por suas facilitações. Os motivos são óbvios: basta digitar uma linha no ChatGPT, indicando o que se pretende, e a ferramenta retorna com um texto pronto. Alguns periódicos acadêmicos renomados (como, por exemplo, a Nature) já se posicionaram sobre o tema: os autores podem usar o ChatGPT como referência para seus textos, mas não devem colocá-lo como autor ou coautor dos textos. Aliás, o próprio ChatGPT alerta que ele é fonte de pesquisa secundária que precisa ser validada. A questão é que esta ferramenta gera textos com tanta assertividade que o usuário desatento tende a não duvidar do que está escrito. Para ilustrar o fenômeno – erro da informação dada pelo Chat vs. sua assertividade – mesmo errado, o usuário, quando confronta a IA do erro, recebe como resposta: “Eu me desculpo por mais essa confusão causada, você está correto...”. Além de erros de conteúdo, o ChatGPT também tende a inventar referências ou citações que não existem. O pesquisador que usa a IA precisa ficar atento. Até porque este fenômeno, apontam os criadores desta tecnologia, não parece fácil de ser superado, já que é incompreensivo para os técnicos o porquê de a máquina fazer isso.
Além deste debate relacionado com a metodologia, outros desafios se relacionam com a questão dos direitos do autor. Para elaborar respostas, o ChatGPT foi alimentado com milhões (ou mais) de dados extraídos de textos. Por um lado, isso revela que o ChatGPT produz textos na medida do que lhe for alimentado; e, por outro lado, pondera-se se seria a utilização destes textos uma nova forma de plágio (já que nem sempre a empresa detentora da ferramenta de IA confere pagamento pelo uso dos direitos do autor, ao lê-lo/usá-lo em seu banco de dados). O mesmo debate tem sido feito em ferramentas de IA Generativa que produzem imagens, notadamente o Dall-E e o Midjourney, em que ficam mais nítidas as inspirações do acervo artístico da qual se valeram, para construir as imagens solicitadas no prompt pelo usuário.
Retornando à produção de textos, outro desafio a ser superado é a aplicação destas ferramentas de IA Generativa para solução de processos administrativos e judiciais. O Instituto Nacional de Seguridade Social brasileiro (INSS) está utilizando ferramenta de IA para análise de pedidos de aposentadoria (o famigerado indeferimento da aposentadoria em seis minutos vem sofrendo críticas). Os Tribunais de Contas brasileiros também já estão utilizando sistemas similares. No Judiciário do Brasil, percebe-se um número de 140 projetos ativos de IA em 62 tribunais brasileiro (em mar/24), mas com funções de conectar o pagamento de taxas judiciais aos processos, de possuir serviços de chatbots nos sites para auxílio dos usuários, e de reconhecer e associar casos similares.
Os embates éticos de aplicação de IA Generativa em processos judiciais, no entanto, não estão na automação de processos repetitivos e burocráticos, como os acima mencionados. Os maiores embates se referem à possibilidade de se transferir para a IA a atribuição de resolução do caso, como o INSS já está fazendo. Se para os processos do INSS, a automação parece ser menos traumática, por se tratar de análise de requisitos objetivos, para a resolução de casos no Poder Judiciário, há necessidade de interpretação normativa de regras e de princípios. Isto se revela uma tarefa que impõe uma necessária carga valorativa (axiologia) por parte do intérprete. Seria uma máquina capaz de exercitar esta axiologia?
A questão passa longe da especulação já que se tem notícia de que o primeiro caso de uso de IA generativa no Judiciário, que veio à público, foi o de um Juiz colombiano, em um processo sobre proteção de criança autista, em 30/01/23. Embora, no mencionado caso, o juiz não tenha usado o ChatGPT para decidir, usou para fundamentar a decisão.
Procurou-se, assim, instigar o leitor deste texto para outros usos desta ferramenta, com as devidas cautelas. Não se pretende aqui firmar posicionamento contra o uso da IA generativa, nem se pretende querer frear o uso das tecnologias. O propósito é o de incentivar o debate. Qual é o papel do advogado, do juiz e do promotor neste Admirável Mundo Novo? Como um pesquisador pode usar validamente a IA generativa em suas pesquisas? Os robôs sonham com ovelhas elétricas?