
Entrevista com Mark Coeckelbergh, por Paola Cantarini
Esta entrevista foi realizada em dezembro de 2023 por Paola Cantarini e traduzida a língua portuguesa por Mateus H. Amorim.
Mark Coeckelbergh, de nacionalidade belga, é um filósofo da tecnologia. Ele é Professor Titular de Filosofia da Mídia e Tecnologia no Departamento de Filosofia da Universidade de Viena, Áustria, e ex-presidente da Sociedade de Filosofia e Tecnologia (Society for Philosophy and Technology)*. Ele foi anteriormente Professor de Tecnologia e Responsabilidade Social na Universidade De Montfort em Leicester, Reino Unido; Diretor Coordenador do 3TU Centro de Ética e Tecnologia (3TU Centre for Ethics and Technology); e membro do Departamento de Filosofia na Universidade de Twente. [N.E] Expert em ética na Inteligência Artificial e interação humano-máquina, atualmente é membro do Grupo de Especialistas de Alto Nível da Comissão Europeia sobre Inteligência Artificial. Ele é autor de vários livros, dos quais Growing Moral Relations (2012), Money Machines (2015), New Romantic Cyborgs (2017), Moved by Machines (2019), Introduction to Philosophy of Technology (2019) e, recém-publicado no Brasil, Ética na Inteligência Artificial (2023). Suas mais novas incursões publicadas são Robot Ethics (2022), Digital Technologies, Temporality, and the Politics of Co-Existence (2023) e Why AI Undermines Democracy and What to Do About It (2024).
Paola Cantarini: Qual é sua área de expertise? Você poderia começar nos contando sobre seu trabalho relacionado à IA e proteção de dados?
Mark Coeckelbergh: Sou Mark Coeckelbergh, professor de Ética na Universidade de Viena. Minha especialidade é em filosofia da tecnologia, em especial nos campos da Inteligência Artificial, robótica e ética, no que tange suas intersecções com filosofia política.
Paola Cantarini: Há a necessidade e, por consequência, há possibilidade de que alguma regulamentação internacional possa tratar da IA mundialmente, pelo menos estabelecendo alguns padrões mínimos*?
Mark Coeckelbergh: Sim, isso seria uma excelente ideia, já que a IA não tem fronteiras. Apesar disso, está em praticamente todo canto. Então, seria bom ter acordos internacionais que tratem disso e diretrizes [framework]]* de governança global. Eu tenho visto alguns esforços nesta direção. Claro, a União Europeia já tem um esforço supranacional de regulamentação, mas em nível mundial, não tem acontecido muita coisa além da ONU agora considerar estas questões. Eu acho que isso é muito positivo, pois precisamos de uma abordagem global.
Paola Cantarini: Como os chamados “trade-offs” entre inovação e regulação funcionariam? Ou a regulação por si só preveniria e comprometeria a inovação e concorrência internacional? Segundo Daniel Solove, no seu livro “Nothing to Hide: the false tradeoff between privacy and security” (Y.U. Press, 2011) esta seria uma concepção errônea. Você poderia comentar sobre isto?
Mark Coeckelbergh: Sempre há necessidade de um certo equilíbrio entre inovação e regulação. Por conseguinte, a IA deverá ser usada para o máximo benefício à sociedade. Logo, nós devemos assegurar que haverá espaço para inovação. Porém no momento, temos uma grande necessidade de regulação que precisa ser robusta. Ademais, isto promoveria confiança às empresas e organizações que estão envolvidas no desenvolvimento de tecnologias de IA. Neste sentido, para a inovação, eu acredito que é salutar ter essa certeza que resulta em estabilidade, o que é atualmente um ponto crítico para a área, uma vez que se trata de uma área dinâmica que se baseia nas discussões em andamento sobre a ética e política.
Paola Cantarini: Considerando um exemplo paradigmático na área de proteção de dados, o LIA – Legitimate Interests Assesment -, ou teste de ponderação, prevista na Lei Geral de Proteção de Dados brasileira e no General Data Protection Regulation da União Europeia como documento obrigatório de compliance, quando se processa dados pessoais conforme a legislação (medido pelo teste de ponderação), seria possível criar um modelo de diretrizes [framework] que vise à proteção de direitos fundamentais integrados a um documento específico, como o AIA – Algorithmic Impact Assesment? Assim, estabelecer-se-ia, feito o sopesamento, as medidas de mitigação de risco adequadas, necessárias e proporcionais para assegurar tais direitos.
Mark Coeckelbergh: Sim, eu acho muito importante a proteção dos direitos fundamentais, em particular a privacidade. Para tanto, acredito ser crucial primeiro de tudo implementar mecanismos de monitoramento que identifiquem potenciais violações de direitos. Além disso, ter regulamentações já implementadas, tais como o GDPR na Europa, sedimenta um precedente que pode inspirar outras regulamentações similares mundialmente que tratem das questões de privacidade.
Paola Cantarini: O que significa para você “governança de IA” e qual relação você vê entre inovação, tecnologia e direito?
Mark Coeckelbergh: Para mim, governança sem dúvidas abarca o direito, que precisa fornecer diretrizes para solucionar os casos de indivíduos que desviem da essência ética da IA. Também, [o direito] traz inovações através de julgados relacionados à soft law e ética no campo da governança, supondo que haja uma diretriz pública que permita tais abordagens e considerações éticas. Impor restrições em excesso com pouco espaço para liberdade é problemático. Logo, essa relação é crucial para alcançar um equilíbrio entre perspectivas que variam com base na cultura política e decisões democráticas de cada país, permitindo assim soluções plurais em escala global para firmar compromissos internacionais nestes assuntos.
Paola Cantarini: Este ano, na Bienal de Arquitetura de Veneza (2023), o tema do stand brasileiro foi “Terra e Ancestralidade (Earth and Ancestry)”, ou seja, decolonização (“De-colonizing the canon”, [diz] o pavilhão “Terra” do Brasil na Bienal de Veneza). Seria possível escapar a esta lógica colonialista que também está presente nas áreas de IA e dados?
Mark Coeckelbergh: Sim, é imprescindível tratar do grande problema da IA estar interligada a vários sistemas e modos de pensamento hegemônicos, incluindo perspectivas coloniais. Portanto, é essencial embarcar na decolonização da IA, assegurando que seu desenvolvimento e utilização não perpetuem a dominação de um grupo sobre outro ou endosse novas perspectivas coloniais nestas interações. Notadamente, isto é vital em um contexto global, especialmente quando contemplamos a governança global da IA. Discussões sobre tais assuntos não podem ser dominadas pelas perspectivas ocidentais e do Norte global, impondo seu modo de pensar ao resto do mundo. Ao invés disso, deveríamos nutrir diálogos respeitosos e significativos ao mesmo tempo assegurando a soberania das nações, o estado democrático de direito e diferenças culturais.
Paola Cantarini: Hoje, quais são os maiores desafios com o avanço da IA, depois da controvérsia com o ChatGPT e o “período de moratória” feito na carta/manifesto pelo Elon Musk e outras figuras de liderança?
Mark Coeckelbergh: Eu acredito que é crucial estabelecer regulações que abarquem novas tecnologias, incluindo modelos fundacionais, tais como os usados na IA. Infelizmente, na Europa, atualmente, há uma forte pressão para regulamentar o papel da IA, influenciado por certas empresas. É fundamental tratar disso e, em nível global, enfrentar o desequilíbrio de poder e assimetrias existentes entre países e regiões no desenvolvimento da IA, especialmente se tratando de IA generativa como o ChatGPT, onde um número muito pequeno de indivíduos e empresas têm forte influência. As consequências de um desenvolvimento desproporcional da IA afetam todo o mundo. Portanto, temos que explorar formas mais equalizadas de desenvolvê-la mundialmente e empoderar outros países e cidadãos, promovendo [a presença de] várias vozes no desenvolvimento desta tecnologia. Onde estão, por exemplo, os custos [de não incluir] somente os EUA nisto? Por fim, gostaria de recomendar meu livro que será lançado em breve, “AI Undermines Democracy and What We Can Do About It”, onde eu mergulho mais a fundo nas perspectivas e estudos de IA.