Entrevista com Nicholas Kluge, por Veridiana Cordeiro e João Cortese
Esta entrevista foi realizada em outubro de 2024 por Veridiana Domingos Cordeiro e João Cortese com o cientista da computação e filósofo Nicholas Kluge, atualmente pesquisador da Universidade de Bonn.
Nicholas Kluge é doutor e pesquisador de pós-doutorado no Centro de Ciência e Pensamento da Universidade de Bonn, na Alemanha. Formado em engenharia elétrica pela PUC-RS, onde fundou o projeto AIRES (AI Robotics Ethics Society), que se dedica à discussão dos princípios éticos na criação de inteligência artificial. Ele é um dos desenvolvedores do modelo de linguagem open-source TeenyTiny Llama, treinado em português, e do chatbot AIRA. Nicholas também contribuiu como autor para o artigo “Worldwide AI Ethics: A Review of 200 Guidelines and Recommendations for AI Governance,” publicado em 2023, e para o artigo “Crossing the Principle–Practice Gap in AI Ethics with Ethical Problem-Solving,” de 2024, onde analisa as implicações éticas relacionadas às aplicações e ao desenvolvimento responsável da inteligência artificial.
Mais informações: https://nkluge-correa.github.io
Veridiana Domingos Cordeiro: Você poderia contar um pouco a respeito da sua trajetória e sua área de pesquisa?
Nicholas Kluge: Durante o mestrado, meu interesse por redes neurais e deep learning foi despertado, levando ao sucesso do meu projeto de análise e classificação de séries temporais, especificamente sinais de acelerometria, utilizando vários [modelos de redes neurais] (https://github.com/Nkluge-correa/skateboarding-trick-classifier). Após essa fase, aprofundei meus estudos em Reinforcement Learning (RL), focando em técnicas como Deep Q-learning, e explorei como agentes de RL podiam exibir comportamentos indesejáveis em Gridworlds, o que me levou a me interessar profundamente por AI Safety. Questões como corrigibilidade, busca por poder (power-seeking) e alinhamento de valores me motivaram a buscar um doutorado.
Em 2019, com o lançamento do GPT-2, grande parte da comunidade interessada em alinhamento migrou para o campo do processamento de linguagem natural (PNL), e eu segui essa tendência. Escrevi um projeto de doutorado sobre alinhamento, com o objetivo de investigar problemáticas e soluções por meio de modelos de linguagem. Candidatei-me aos programas de pós-graduação em Ciências da Computação e Filosofia tanto na UFRGS quanto na PUCRS. No fim, fui contemplado com uma bolsa na PUCRS para um doutorado interdisciplinar em Filosofia, o que me desafiou a construir uma base filosófica sólida para o trabalho técnico que pretendia desenvolver. O resultado foi minha dissertação, [“Dynamic Normativity: Necessary and Sufficient Conditions for Value Alignment”] (https://arxiv.org/abs/2406.11039), realizada em cotutela com a Universidade de Bonn, onde atualmente trabalho.
Durante o doutorado, além de produzir pesquisas significativas na área, como a revisão de literatura [Worldwide AI Ethics: a review of 200 guidelines and recommendations for AI governance](https://nkluge-correa.github.io/worldwide_AI-ethics/), desenvolvi também alguns dos primeiros modelos open-source para geração de texto em português, como o [TeenyTinyLlama](https://nkluge-correa.github.io/TeenyTinyLlama/). Também fui o fundador da AIRES (AI Robotics Ethics Society) na PUCRS, uma sociedade sem fins lucrativos dedicada à promoção de pesquisas e iniciativas para o desenvolvimento de IA ética e responsável. Sob a liderança da [AIRES na PUCRS](https://www.airespucrs.org/), desenvolvemos inúmeros projetos de impacto, que recomendo a todos interessados explorarem.
Além disso, durante o doutorado, participei da redação de dois projetos contemplados por financiamentos da FAPERGS e do CNPq, que nos concederam aproximadamente 3 milhões de reais. Esses recursos foram utilizados para criar a Rede RAIES (Rede de Inteligência Artificial Ética e Segura), por meio da qual lideramos [várias pesquisas](https://raies.org/pesquisas/). Uma dessas iniciativas está sendo implementada na plataforma RAIP (Responsible AI Platform), que visa certificar IA responsável no contexto brasileiro. Atualmente, trabalho no projeto [“Zertifizierte KI”](https://www.cst.uni-bonn.de/en/research/certified-ai), financiado pelo Ministério de Assuntos Econômicos, Indústria, Ação Climática e Energia do Estado da Renânia do Norte-Vestfália, que tem como objetivo desenvolver métodos de certificação para IA confiável. Paralelamente, estou envolvido no desenvolvimento de Large Language Models para línguas de poucos recursos, com o lançamento da primeira série de modelos em português previsto para o final de 2024, de forma open-source.
Veridiana Domingos Cordeiro: Quais são os principais desafios técnicos que você enfrenta no processamento de texto em português usando inteligência artificial?
Nicholas Kluge: Os principais desafios técnicos no processamento de texto em português usando inteligência artificial estão relacionados principalmente à falta de recursos e infraestrutura. Em primeiro lugar, há uma escassez de materiais essenciais, como datasets de qualidade, o que torna o desenvolvimento de modelos de PNL (Processamento de Linguagem Natural) muito mais difícil. Ao contrário de outras línguas mais amplamente estudadas, como o inglês, a quantidade de dados disponíveis para o português é limitada, o que nos obriga a criar muitos dos recursos do zero.
Além disso, a comunidade de PNL ainda não tem uma cultura amplamente disseminada de desenvolvimento aberto e reprodutível. Muitos projetos e avanços não são compartilhados de maneira transparente, forçando pesquisadores a reinventarem a roda em vez de construírem sobre os esforços já realizados. Isso desacelera o progresso e amplia os obstáculos técnicos que poderiam ser superados com uma maior colaboração e abertura.
Por fim, o acesso a infraestruturas de computação de alta performance é um grande limitador. Sem esses recursos, realizar pesquisas de ponta em PNL se torna quase inviável. Esse fator faz com que muitos pesquisadores, como eu, optem por desenvolver suas carreiras em outros países, onde há melhores condições para lidar com as altas demandas computacionais que essas pesquisas exigem.
Veridiana Domingos Cordeiro: Pode nos contar sobre o supercomputador da Universidade de Bonn? Como ele melhorou e possibilitou treinar o seu modelo?
Nicholas Kluge: O supercomputador Marvin, um cluster de HPC de última geração do tipo Tier 3, foi adquirido pela Universidade de Bonn em outubro de 2022 e se tornou acessível em março de 2024. Ele ocupa atualmente a posição 423 na lista dos 500 supercomputadores mais poderosos do mundo. Marvin possui uma capacidade de processamento impressionante, com 192 nós de alto desempenho e 32 nós de GPU A100, o que permite rodar aplicações de machine learning em larga escala de maneira eficiente.
O acesso a Marvin foi um divisor de águas para meu trabalho. Antes, a falta de infraestrutura computacional adequada limitava as possibilidades de treinar modelos grandes e complexos, principalmente para processamento de linguagem natural (PLN) em português. Agora, com o suporte oferecido pela Universidade de Bonn, fomos capazes de acelerar significativamente o treinamento de modelos de linguagem de grande porte. Tudo isso sem termos que nos preocupar com os custos, que são generosamente custeados pela universidade. Assim, nossa única preocupação é desenvolver pesquisa de qualidade, e o resto, fica por conta da Uni Bonn.
Veridiana Domingos Cordeiro: Quais são as principais dificuldades em construir e manter um corpus robusto em língua portuguesa para treinamento de modelos de IA?
Nicholas Kluge: A principal dificuldade em construir e manter um corpus robusto em língua portuguesa para o treinamento de modelos de IA é a questão da escala. Para obter bons resultados, é necessário um volume massivo de dados, muitas vezes na ordem de trilhões de tokens. No entanto, coletar e organizar essa quantidade de dados em português é um grande desafio, já que não há tantos recursos disponíveis como há para outras línguas, como o inglês.
Outro desafio significativo é a tentativa de expandir o corpus utilizando datasets traduzidos de outras línguas. Motores de tradução automática frequentemente falham ao capturar nuances e especificidades da língua portuguesa, resultando em traduções que não refletem bem a cultura local. Esses dados traduzidos muitas vezes incorporam informações culturais de outros contextos, levando a um corpus de qualidade inferior e inadequado para treinar modelos que realmente compreendam a língua e a cultura do Brasil ou de outros países lusófonos.
Veridiana Domingos Cordeiro: Como você lida com as variações regionais e dialetais do português em seus corpora?
Nicholas Kluge: Atualmente, não conseguimos lidar adequadamente com as variações regionais e dialetais do português no nosso dataset. Apenas agregar texto em português, independentemente do dialeto, já é um grande desafio. A distinção entre o português brasileiro, europeu, angolano, entre outros, é difícil, e fazer essa separação em uma escala regional (no Brasil) é algo que, na minha visão, ainda está distante de ser alcançado. Para que isso fosse feito em larga escala, precisaríamos de modelos capazes de diferenciar, por exemplo, o dialeto gaúcho do utilizado na Bahia. No entanto, até onde sei, modelos desse tipo não existem ou não estão disponíveis abertamente para uso. Contudo, isso representa uma linha de pesquisa futura muito interessante. A própria criação de um dataset rotulado com os diversos dialetos do português já seria uma enorme contribuição para a comunidade, e é algo que certamente impulsionaria o desenvolvimento de datasets mais granulares para o Português.
Veridiana Domingos Cordeiro: Existem aspectos únicos da língua portuguesa que influenciam a direção da sua pesquisa?
Nicholas Kluge: Não consigo pensar em nada no momento. Acredito que, embora eu não seja um linguista, mas um desenvolvedor de modelos, o português, em termos de processamento de linguagem natural (PLN), enfrenta os mesmos problemas que outras línguas de poucos recursos (low-resource languages). Talvez hajam aspectos únicos e singulares ao português, mas eu honestamente os desconheço. Entre esses desafios estão a ausência de estudos padronizados para comparação, a falta de datasets e ferramentas adequadas, a carência de benchmarks de qualidade e a falta de iniciativas de desenvolvimento aberto.
Eu não acho que o mundo precisa de mais uma empresa desenvolvendo grandes modelos de linguagem (LLMs) em segredo, seja em português ou em qualquer outra língua. O que precisamos é de pessoas dispostas a desenvolver de forma aberta e a compartilhar conhecimento. Só assim conseguiremos superar a ideia de "línguas de poucos recursos" e promover avanços reais para o português e outras línguas que enfrentam esses mesmos desafios.
Veridiana Domingos Cordeiro: Quais são as aplicações práticas mais promissoras que você vislumbra para o seu trabalho atual?
Nicholas Kluge: Vejo o nosso trabalho atual como uma fundação para futuros avanços. Esperamos deixar para a comunidade ferramentas e conhecimento que ajudem outros pesquisadores a evitar perder tempo e recursos, como nós fizemos ao longo do processo. Sendo otimista, também acredito que nossos modelos poderão ser utilizados pela indústria para resolver problemas onde não é necessário um modelo gigantesco e custoso, mas algo mais acessível e eficiente. Além disso, espero que os pesquisadores possam utilizar nossos modelos e ferramentas em suas próprias pesquisas, melhorando-os e descobrindo falhas que nós mesmos talvez ainda não tenhamos identificado. Dessa forma, poderemos aprender com esses feedbacks e ajustar essas falhas ao treinar a próxima geração de modelos.
Veridiana Domingos Cordeiro: Como você vê o futuro do processamento de linguagem natural em português nos próximos anos?
Nicholas Kluge: Vejo o futuro do processamento de linguagem natural em português como promissor e cheio de possibilidades. Imagino que teremos datasets com trilhões de tokens, compostos por uma mistura de dados naturais e sintéticos, com um nível de granularidade que permitirá que os modelos aprendam a diferenciar os diversos dialetos do português. Além disso, acredito que veremos os primeiros modelos de linguagem de grande escala pré-treinados (e abertos!), com dezenas de bilhões de tokens, algo viável com a quantidade de dados disponíveis atualmente. Por fim, espero que desenvolvamos melhores harnesses de avaliação, onde a ingestão de tokens esteja realmente correlacionada com o volume e qualidade de pre-treinamento de um modelo.
João Cortese: você pode nos contar um pouco sobre a revisão de 200 guidelines de ética da IA feita por você junto com colegas?
Nicholas Kluge: A ideia por trás dessa pesquisa foi que, ao escrever o primeiro capítulo da minha tese de doutorado, e não queria apenas citar outras metanálises da área para explicar o que é “AI Ethics” e suas preocupações, mas fazer a minha própria. Assim, eu juntei meus colegas da AIRES na PUCRS e decidimos fazer uma revisão que fosse maior e melhor do que o que fora produzido antes. E o produto disso foi o Worldwide AI Ethics (WAIE). WAIE já tem mais de 50 citações, e faz menos de um ano que publicamos. Acredito que tenha sido uma adição a literatura que foi bem-vinda dado ao volume e granularidade que apresentamos (nós criamos um dataset aberto onde temos definições de princípios para cada menção de cada documento). Por exemplo, o dataset do WAIE tem mais de 170 definições de transparência! Isso é bem rico para quem quer fazer pesquisa na área, e permite você a fazer coisas [bem legais se entende um pouco de PNL]( https://nkluge-correa.github.io/worldwide_AI-ethics/embeddings.html). Contudo, tudo isso nos tomou bastante tempo e esforço, e não teria sido possível sem a colaboração de todos os membros envolvidos. Eu e meus colegas estamos trabalhando no WAIE 2.0 no momento, e esperamos trazer um estudo atualizado, com mais documentos, em 2025.
João Cortese: Nesse sentido, da grande revisão dos guidelines, como se sente a questão da geração deles, e da legislação para IA em geral, está sendo desenvolvida no norte global? Há alguma alternativa para o sul ser mais incluído no debate; ser ouvido?
Nicholas Kluge: A divisão entre o Norte e o Sul global é um tema abordado em várias áreas. De tudo que eu já ouvi sobre isso, a nossa única alternativa, como representantes do Sul Global que temos é a incansável insistência. É nossa responsabilidade quebrar essas barreiras, com ou sem ajuda de nossos irmãos e irmãs do norte. Em termos de regulamentação, tanto a implementada na Europa pelo EU AI Act quanto à sendo desenvolvida no Brasil, eu ainda vejo bastante problemas em termos de clareza e conhecimento por partes daqueles criando e redigindo tais legislações. Acho que é uma crítica comum (pelo menos nos círculos que eu frequento) de que, para muitos, parece que tais legislações não foram escritas por pessoas que são (ou entendem) o domínio em questão. Mas isso é também compreensível. Nosso campo avança muito rápido. Muito mais rápido do que legisladores estão acostumados. Como os órgãos de governança pública vão acompanhar esse campo e regular ele enquanto ele mesmo muda a cada 6 meses, é algo que eu não sei bem como será feito, além da forma como vem sendo feito. Infelizmente, a legislação parece estar sempre atrás do desenvolvimento tecnológico, enquanto corre freneticamente para tentar entendê-lo.