Breve reflexão sobre IA no setor público: riscos e oportunidades
A inteligência artificial (IA) pode ser definida como “a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations or decisions influencing real or virtual environments” (1). Por conta dessas virtudes, os sistemas de IA vêm sendo cada vez mais utilizados para a formulação e implementação de políticas públicas por diferentes Estados mundo afora.
A Austrália tem utilizado técnicas de Machine Learning (ML) para que seus satélites aprendam a reconhecer e distinguir áreas com formações humanas e áreas com formações naturais. Com isso, o país pretende se tornar capaz de identificar problemas específicos já em suas etapas iniciais, como, por exemplo, o avanço da agricultura sobre áreas de biodiversidade.
A Bélgica, por sua vez, tem utilizado a IA para aumentar a participação de seus cidadãos nos processos de formulação de políticas públicas. Baseada em técnicas de ML e de Natural Language Processing, a plataforma CitizenLabreúne automaticamente em clusters as milhões de sugestões de políticas públicas apresentadas pelos cidadãos do país em diferentes plataformas de participação popular. O sistema também identifica o tema central e os contornos geográficos e demográficos de cada um desses clusters. Informações desse tipo podem tornar as ações do setor público mais assertivas e eficientes.
Portugal e Lituânia também vêm utilizando a IA para reduzir a distância entre o setor público e os cidadãos. Nos dois países, é comum a utilização de chatbots na oferta de serviços públicos.
Exemplos positivos como esses concorrem, no entanto, com relatos cada vez mais numerosos de usos deletérios da IA no âmbito do Estado. Na China, por exemplo, a tecnologia tem permitido ao governo reunir informações disponibilizadas pelas pessoas na internet – como comentários feitos em sites –, classificá-las como possíveis opositoras ao governo, e identificá-las em meio a protestos públicos por meio do uso de sistemas de reconhecimento facial baseados em ML.
Também nos EUA, há indícios de que a IA esteja sendo usada para vigiar grupos sociais específicos. Em sua obra “Automating Inequality – How Hig-Tech Tools Profile, Police, and Punish the Poor”, a cientista política Virginia Eubanks analisa diversos casos em que tecnologias emergentes (e não apenas a IA) têm permitido a governos locais acompanhar de perto a rotina de pessoas pobres, sempre à procura de justificativas para lhes negar benefícios sociais ou mesmo para encarcerá-las.
Além do risco de vigilância indevida pelo Estado, os sistemas de IA, quando utilizados pelo setor público, devem ser alvo constante de atenção e escrutínio por uma segunda razão. Uma vez que as contribuições positivas da IA ao aprimoramento de processos de elaboração e implementação de políticas públicas ainda são recentes ou, como acontece na maioria dos casos, são possibilidades que ainda não se concretizaram, não temos como ainda saber com precisão satisfatória as condições necessárias para que o setor público seja capaz de utilizar a IA para melhorar de modo efetivo a vida cotidiana das pessoas. Precisamos, portanto, de um número maior de evidências empíricas, as quais devem incluir não apenas exemplos de usos bem-sucedidos dos sistemas de IA pelo setor público, mas também casos em que os resultados apresentados por essa tecnologia ou se mostraram pouco satisfatórios ou não compensaram seus custos. .
Apesar de o uso da IA pelo setor público ainda estar envolto em dúvidas, é certo que a potencialização das virtudes dessa tecnologia e a mitigação dos riscos associados a ela durante a formulação e a implementação de políticas públicas dependem de um mesmo fator: transparência. Estase expressa, principalmente, na capacidade de servidores públicos fornecerem aos cidadãos ao menos três conjuntos de informações: (i) a forma como seus dados pessoais são usados para alimentar os sistemas de IA empregados na administração pública e as finalidades para as quais esse procedimento é feito; (ii) a forma como esses sistemas funcionam e as razões que embasam suas decisões (como, por exemplo, a sugestão de que um determinado benefício social seja recusado a um cidadão); (iii) se tais sistemas cumprem, de fato, os objetivos para os quais foram adotados (como, por exemplo, agilizar procedimentos administrativos).
O desafio que está posto é como gerar as informações acima. Afinal, a grande maioria dos países ainda não sabe, por exemplo, como comparar a relação custo-benefício dos sistemas de IA disponíveis no mercado, como determinar a natureza e o volume de dados pessoais a serem utilizados no funcionamento desses sistemas, ou como avaliar a performance dos algoritmos que os embasam. Iniciativas como o Public Policy Programme do The Alan Turing Institute(Reino Unido) e o lançamento do guia “Algorithmic Impact Assessments: A Practical Framework for Public Agency Accountability” pela ONG estadunidense AI Now não só tentam suprir essas lacunas, mas também indicam de modo prático que as universidades, a sociedade civil organizada e o setor público precisam trabalhar juntos em um projeto comum: evitar que a IA se converta em um símbolo tão perigoso quanto enganador de modernidade na administração pública.
Referências Berryhill et al. Hello, World: Artificial intelligence and its use in the public sector. OECD Working Papers on Public Governance, n. 36, 2019.