Os dilemas do uso crescente das tecnologias de Inteligência Artificial (IA) no setor público brasileiro

As tecnologias de Inteligência Artificial (IA) têm sido crescentemente adotadas no setor público em diferentes áreas de políticas públicas, como segurança, saúde, assistência social, educação e gestão de serviços públicos, e em todos os órgãos - Executivo, Legislativo, Judiciário e órgãos de controle, seja nos níveis federal, estadual ou municipal. De acordo com a pesquisa TIC Governo Eletrônico, em 2022, 30% dos órgãos federais e estaduais já utilizavam IA (NIC.br, 2023).

Para ilustrar, são várias as tecnologias de IA já adotadas no Judiciário, tais como o Athos (STJ), Ártemis (TJDFT), Berna (TJGO), Sebastiana (TJPB), Janus (TRE), SIGMA (TRF3), dentre outros (FGV, 2025). No Poder Executivo, o reconhecimento facial no transporte público, uso de plataformas em escolas e sistemas de alerta de chuvas e alagamentos são alguns exemplos dos usos emergentes e expansivos de IA. Ademais, é comum que o Poder Executivo empregue IA para melhorar a comunicação com os cidadãos e cidadãs por meio do uso de chatbots.

No entanto, há algumas questões centrais que devem ser debatidas sobre esse uso cada vez mais intenso da IA pelos órgãos públicos no Brasil. Em primeiro lugar, há uma enorme heterogeneidade em seu uso, que pode revelar-se perniciosa. Esta heterogeneidade se revela nas diferentes categorias de usos e aplicações da IA, a qual pode tanto exercer funções relacionadas à recomendação para a tomada de decisão e à novos meios de comunicação com cidadãos, quanto realizar tarefas rotineiras e repetitivas da organização burocrática do setor público.

A heterogeneidade também se revela em relação ao desenvolvimento de modelos. Modelos podem ser desenvolvidos com o acionamento das capacidades limitadas da burocracia ou pela contratação de serviços de nuvem de grandes corporações de tecnologia. As duas opções se mostram preocupantes.

A primeira por conta da limitação das capacidades do setor público para lidar com a gestão de tecnologia de informação. Isso envolve tanto a existência de capacidades em tecnologia de informação para orientar e apoiar esses processos, como o preparo e treinamento dos funcionários públicos em seu uso cotidiano. Apenas 30% dos órgãos públicos federais e estaduais ofertam capacitação, curso ou treinamento sobre IA para os funcionários de tecnologia da informação, variando de 80% no caso do Judiciário a 25% no caso do Executivo (NIC.br, 2023). E mesmo no Judiciário, um número expressivo de servidores e magistrados (46% dos respondentes da pesquisa) relata não ter capacitação institucional ou precisar procurar capacitação externa (FGV, 2025). Soma-se a isso a falta de infraestrutura dos órgãos para desenvolvimento dos projetos e a falta de profissionais qualificados nas equipes técnicas de pesquisa e desenvolvimento, tem-se um cenário de ambivalência frente à implementação da IA (CNJ, 2025).

A segunda opção aprofunda a dependência do setor público em relação às corporações de tecnologia, as quais institucionalizam novos padrões de serviços públicos e controlam o fluxo de informação em escala global. O uso de tecnologias e licenças de terceiros adquiridas por órgãos públicos, como o CoPilot e OpenAI, têm se tornado cada vez mais comuns. Por via dependente de sistemas de nuvem, que direcionam e organizam o desenvolvimento de soluções, cria-se no setor público uma burocracia oculta - shadow bureaucracy - sem a necessária responsabilização.

Em segundo lugar, a cadeia produtiva dessas tecnologias e os agentes envolvidos neste processo vivenciam dilemas numerosos. Por exemplo, modelos de IA requerem dados em grandes volumes e de qualidade. Embora o setor público seja um grande coletor de dados e haja uma tendência ao aprofundamento da expansão de IA no setor público, os desenvolvedores se deparam com a necessidade de modelagem dos dados, o que reflete uma nova capacidade requerida do setor público em função da integração de IA. Uma vez que dados de baixa qualidade e em volumes insuficientes não possibilitam uma integração apropriada de IA para a realização de funções burocráticas, setores públicos precisam mais e mais refinar base de dados ou adquirir bases de terceiros para treinamento de seus sistemas e ferramentas algorítmicas. 

Ademais, desenvolvedores e gestores se defrontam com questões éticas, as quais se revelam diariamente sob a forma de reforço de vieses e reprodução de discriminações estruturais na sociedade pelo algoritmo. A IA cria novas formas de categorização, já que constroem os cidadãos a partir de dados, e permitem o monitoramento e a fiscalização dos cidadãos, especialmente dos mais vulneráveis, em que se sobrepõem camadas de desigualdades - socioeconômicas e digitais. Assim, os dilemas dos atores envolvidos no processo de integração da IA requerem que o setor público aprofunde suas capacidades analíticas, de forma a sustentar uma integração desta tecnologia de forma segura e responsável. O setor público brasileiro, no entanto, é marcado por profundas assimetrias e desigualdades. 

Em terceiro lugar, mesmo que essas tecnologias ofereçam potencial expressivo para fortalecer a capacidade administrativa do Estado, apoiando a decisão e a capacidade analítica de decisores essas tecnologias apresentam ganhos pequenos de produtividade. As pesquisas realizadas por Giest e Klievenik (2022) e Janssen e demais autores (JANSSEN et al., 2022) apontaram que a adoção de IA, nos setores públicos analisados por eles, implicou em menores níveis de transparência e accountability, como também menos decisões corretas. Em estudo recente do Alan Turing Institute, do Reino Unido, a integração de IA no setor público promoveu ganhos marginais na produtividade dos servidores públicos. 

Além disso, essas tecnologias exigem novas capacidades e formas de governança para monitoramento e acompanhamento dos modelos e atualizações e inovações frequentes. Considerando a enorme heterogeneidade de capacidade dos órgãos públicos brasileiros, isso seria impossível de ser realizado no país todo, o que resulta em disparidades maiores entre as organizações, competições predatórias pela tecnologia mais moderna e sujeição a uma dependência de grandes empresas, rápida defasagem e maiores riscos de segurança digital. 

Por fim, em quarto lugar, a despeito dos vários projetos e ferramentas desenvolvidos in-house, os funcionários públicos comumente utilizam outras tecnologias, licenças e programas feitos por empresas privadas de maneira informal, ou seja, a conta e risco do funcionário. É comum que o uso do ChatGPT, Claude, Gemini para consultas rápidas, sejam majoritariamente informais. Há ainda modelos híbridos como o Chat TCU  e aplicações mais específicas, como geradores de emendas e jurisprudência, por exemplo, a aplicação do Microsoft Teams “JurisprudênciaGPT”. 

Esses usos informais e híbridos trazem questões relacionadas ao controle sobre o compartilhamento de dados sensíveis e pessoais de indivíduos na interação com tais tecnologias. O Conselho Nacional de Justiça (2025) apontou que mais de 57,6% dos tribunais que usam IA indicaram que seus profissionais usam contas pessoais para acessar tais ferramentas - atitude que contrasta fortemente com a  principal preocupação em segurança de dados e privacidade dos processos judiciais apontada pelos respondentes da pesquisa.

Relacionado a isso, questões éticas e de transparência como desafios à implementação da IA surgem em baixíssimo grau, computando apenas 8,1% dos desafios relatados pelos tribunais (CNJ, 2025). Entre os órgãos federais e estaduais, apenas 6% dos órgãos apontam questões éticas e 21% preocupações com violação da proteção de dados e privacidade como motivos para não utilizar tecnologias de IA (NIC.br, 2023).

Espera-se uma expansão cada vez mais veloz de ferramentas de IA nos setores públicos, abarcando especialmente a IA generativa. Isso é reforçado pelo imaginário, dentre os funcionários públicos, de que sobrecargas de demandas e produtividade só podem ser solucionadas com a implementação dessas tecnologias. Não obstante, os benefícios o uso da IA são valiosos, mas dependem sobretudo da maturidade tecnológica das organizações públicas, formas de governança, planejamento estratégico e integrado com as atividades desempenhadas, regulações e diretrizes sobre seu uso e, claro, uma consciência crítica quanto ao treinamento dos algoritmos, a composição dos bancos de dados e a governança das ferramentas e seus resultados.

Referências:

Conselho Nacional de Justiça. (2025). Pesquisa inteligência artificial no Judiciário 2024: Resumo executivo. Conselho Nacional de Justiça; Programa das Nações Unidas para o Desenvolvimento.

Janssen, M., Hartog, M., Matheus, R., Ding, A. Y., & Kuk, G. (2022). Will algorithms blind people? The effect of explainable AI and decision-makers’ experience on AI-supported decision-making in government. Social Science Computer Review, 40(2), 478–493.

Giest, S. N., & Klievink, B. (2024). More than a digital system: How AI is changing the role of bureaucrats in different organizational contexts. Public Management Review, 26(2), 379–398.

NIC.br. (2023). TIC Governo eletrônico. Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br). https://cetic.br/pt/pesquisa/governo-eletronico/indicadores/

Salomão, L. F., Leme, E., & Nunes, D. (Coords.). (2025). Inteligência artificial: Tecnologia aplicada à gestão dos conflitos no âmbito do Poder Judiciário brasileiro (4ª ed.). Fundação Getulio Vargas.