O Regulamento da IA e o desafio de lidar com uma tecnologia em rápida evolução.

Enquanto a UE e o novo governo dos EUA parecem prestes a entrar em desacordo sobre a regulamentação tecnológica, o Volt analisa os pontos fortes, fracos, oportunidades e ameaças de uma peça chave na legislação digital Europeia: o Regulamento Inteligência Artificial (IA).

7 de abr de 2025

Já não é um conceito legislativo distante, o Regulamento da IA já chegou. Em fevereiro, o primeiro conjunto de regras entrou em vigor, estabelecendo requisitos de literacia em IA para funcionários de fornecedores e implementadores, além de proibir certas utilizações da IA. Novas regulamentações serão implementadas por fases, com a implementação total prevista para agosto de 2026.

 

Neste artigo, tentamos avaliar criticamente o Regulamento da IA, um exercício desafiador que espelha algumas das dificuldades encontradas pelos legisladores ao redigir a legislação. Especificamente:

 

·         A legislação tem sempre como objetivo o equilíbrio. Muitas das decisões que levaram à versão final do Regulamento da IA foram concessões, incluindo a discussão constante sobre a medida em que a regulamentação pode sufocar a inovação.

 

·         O impacto do Regulamento varia, dependendo de quem o analisa. O que uma grande empresa de tecnologia vê como um fardo excessivo, uma PME ou um consumidor podem considerar como uma proteção essencial.

 

·         O desenvolvimento recente da Inteligência Artificial tem sido extremamente rápido, com aplicações numa vasta gama de áreas e investimentos significativos, o que torna a sua regulamentação particularmente complicada.

 

·         Quando o Regulamento foi originalmente anunciado em 2019, o objetivo era reforçar a segurança dos consumidores ao interagir com sistemas de IA. Os sistemas dominantes na altura eram os sistemas para peritos e com redes neurais relativamente simples. Quando o Regulamento estava quase completo, o ChatGPT surgiu, e a interação da IA com a sociedade influenciou fortemente as negociações em 2022 e 2023.

 

·         O Regulamento da IA ainda está a ser finalizado através de legislação secundária. As discussões sobre códigos de práticas estão a moldar um terreno fértil para a sua implementação, e os Estados-Membro estão a preparar organismos para serem responsáveis pela implementação. Isto torna prematuras avaliações definitivas.

 

Um começo forte

 

Apesar desses desafios, o Regulamento da IA tem três principais pontos fortes:

 

·         O timing e reconhecimento dos riscos da IA. Sendo a primeira legislação globalmente reconhecida e significativa sobre a IA, o timing do Regulamento permitiu-lhe influenciar outros países com os padrões que estabelece. Por exemplo, a Coreia do Sul, o Brasil, o Japão, a Califórnia, o Canadá (e, discutivelmente, o Reino Unido) adotaram, tentaram adotar ou estão em processo de adoção de regulamentações sobre IA semelhantes às do Regulamento da IA da UE. Também é a primeira legislação a reconhecer os riscos da IA, com um esforço explícito para os abordar, visando, no final, aumentar a sua adoção.

 

·         Provisão de certeza jurídica. A legislação (teoricamente) reduz a incerteza jurídica para desenvolvedores de IA, investidores e empresas. Sendo a principal lei sobre IA na União Europeia, deve integrar-se bem com as outras leis digitais da UE.

 

·         Uma abordagem predominantemente baseada no risco. A lei regula os resultados dos modelos de IA, em vez dos inputs, permitindo-lhe manter a sua relevância (com algumas adaptações) mesmo com o rápido desenvolvimento dos modelos de IA. As exceções onde os inputs são regulamentados, como os limiares de computação para modelos com propósito geral com risco sistémico e a proibição de inferir "atributos sensíveis" ao processar dados biométricos ou conjuntos de dados de reconhecimento facial não direcionados, parecem-nos ainda adequadas.

 

Outros pontos fortes notáveis incluem os requisitos para medidas adicionais de conformidade para modelos de IA de propósito geral com riscos sistémicos e as sanções significativas para infrigir o Regulamento (até 10% do volume de negócios global anual), o que deve constituir um bom dissuasor até para aqueles com grandes recursos financeiros.

 

 

O diabo está nos detalhes (pequenas decisões podem ter grandes impactos)

 

Apesar das suas virtudes, o Regulamento da IA tem várias fraquezas. A imprecisão de algumas definições cruciais é preocupante, em particular o uso do termo "segurança nacional". Atualmente, o Regulamento não se aplica aos sistemas de IA utilizados pelos Estados-Membros para fins de "segurança nacional". Quando solicitada a esclarecer, a Comissão usou a definição fornecida pelo Tribunal de Justiça da UE, que a descreve como "abrangendo a prevenção e punição de atividades capazes de desestabilizar gravemente as estruturas constitucionais, políticas, económicas ou sociais de um país e, em particular, de ameaçar diretamente a sociedade, a população ou o próprio Estado, como atividades terroristas."

 

Partilhamos algumas das preocupações dos grupos de direitos humanos de que a natureza imprecisa da definição possa permitir que os Estados-Membros abusem da isenção e implementem modelos proibidos ou de alto risco que não cumpram as disposições do Regulamento da IA. Isto pode ser particularmente problemático em contextos sensíveis, como vigilância biométrica em massa ou migração.

 

Outra fraqueza significativa diz respeito à capacidade de implementação. O  Gabinete para a IA da UE, responsável por supervisionar o Regulamento, é uma equipa pequena com um orçamento metade do tamanho do Instituto de Segurança de IA do Reino Unido. Além disso, a governança e a aplicação da lei devem ser tratadas pelas autoridades nacionais de vigilância de mercado, o que significa que o Gabinete para a IA supervisiona a aplicação sem ter o direito de investigar a conformidade.

 

O Regulamento também não apoia suficientemente a inovação em IA para start-ups e PME. O principal arquiteto e autor do Regulamento da IA, Gabriele Mazzini, reconhece que não foi feito o suficiente para distinguir entre pequenos e grandes players, falhando em reduzir o fardo financeiro e de conformidade das primeiras. Embora a Aliança DigitalSME ressalve que "regras diretamente aplicáveis e rapidamente disponíveis para implementação" farão a diferença, as medidas de apoio às PME podem demorar demasiado a ser implementadas.

 

Outras fraquezas incluem a oportunidade perdida de incluir requisitos de divulgação de uso de energia para sistemas de IA, dependendo de uma aplicação voluntária. A incerteza sobre como o Regulamento da IA interage com outras leis digitais europeias, como o DSA, o GDPR e o DMA, cria preocupações que precisarão ser resolvidas. Embora a capacidade de aplicação adequada a nível dos Estados-Membros seja incerta, os requisitos de literacia são direcionados para os funcionários dos fornecedores de IA, mas os utilizadores podem achar difícil avaliar as suas necessidades de privacidade, ética e equidade devido a uma compreensão incompleta do produto.

 

Oportunidades para a Europa

O Regulamento da IA apresenta várias oportunidades, se implementado de forma sábia. Os Regulatory Sandboxes, que deverão estar operacionais até agosto de 2026, são ferramentas que os Estados-Membros devem oferecer aos fornecedores de IA para testar e validar seus produtos sob supervisão. Se bem implementados, os sandboxes poderiam permitir um ambiente amigável à inovação e sem burocracia para pesquisas responsáveis. A Espanha está, até agora, no caminho certo para entregar o primeiro exemplo. Embora haja muita incerteza sobre a implementação entre os diferentes países, é uma oportunidade única para os reguladores e profissionais encontrarem um bom equilíbrio entre inovação e regulamentação.

 

O Regulamento também posiciona a UE como líder global na governança da IA. Pode aproveitar a sua experiência legal para ser influente nos esforços de coordenação internacional sobre IA, como através dos AI Action Summits ou iniciativas da ONU.

 

Da mesma forma, os Estados-Membros têm a chance de partilhar as melhores práticas entre si. A implementação do Regulamento será liderada pelos Estados-Membros, e embora isso apresente o risco de implementações heterogéneas que dificultem a operação das empresas em diferentes países da UE, também oferece a oportunidade para os países aprenderem uns com os outros.

 

A Espanha, por exemplo, criou o primeiro organismo regulador de IA da UE, enquanto nos Países Baixos, mais de vinte autoridades nacionais de supervisão colaboraram para fornecer conselhos ao governo neerlandês sobre a implementação do Regulamento da IA. Estes são exemplos de iniciativas nacionais que, se bem-sucedidas, poderiam ser replicadas por outros Estados-Membros.

 

Além disso, ao agrupar iniciativas menores e colaborações entre Estados-Membros, os investimentos podem ser simplificados para apostar mais alto, algo que poderia ser desenvolvido numa organização semelhante ao CERN para a IA. As isenções de conformidade para modelos de código aberto poderiam reduzir o fardo sobre o desenvolvimento colaborativo e facilitar soluções de IA de código aberto. A recentemente anunciada iniciativa InvestAI parece promissora neste sentido, oferecendo uma maneira de centralizar recursos e financiamento para os avanços da IA em toda a UE.

 

Interesse próprio ou preocupações genuínas?

Sem a adesão da indústria, até mesmo a regulamentação mais bem-intencionada corre o risco de falhar. Alguns intervenientes influentes, incluindo grandes empresas de tecnologia, expressaram preocupações que por vezes beiram a hostilidade em relação ao Regulamento da IA e outras leis digitais da UE, alertando que isso fará com que a Europa fique para trás na inovação em IA.

 

Alguns exemplos relevantes disso incluem a Google, a Apple e a Meta, que adiaram o lançamento de produtos de IA na UE, citando incertezas regulamentares. Após a declaração da Comissão de Proteção de Dados da Irlanda de que o plano da Meta de usar o conteúdo dos posts públicos de utilizadores do Facebook e Instagram europeus para treinar modelos de IA não estava em conformidade com o GDPR, Mark Zuckerberg e o Cientista Chefe de IA da Meta, Yann LeCun, assinaram uma carta aberta juntamente com outros líderes de empresas europeias afirmando que a Europa deveria decidir entre relaxar as suas regras do GDPR ou "continuar a rejeitar o progresso, contrariar as ambições do mercado único e assistir enquanto o resto do mundo constrói tecnologias às quais os europeus não terão acesso".

 

O relatório de Mario Draghi sobre o Futuro da Competitividade Europeia, por sua vez, sugere que os requisitos regulatórios adicionais do Regulamento da IA para modelos de IA de propósito geral com risco sistémico, combinados com outras barreiras regulatórias existentes, possam levar a que "apenas grandes empresas (que frequentemente não são da UE) tenham capacidade financeira e incentivos para suportar os custos de conformidade, enquanto as jovens empresas de tecnologia inovadoras podem optar por não operar na UE".

 

Alguns analistas consideram que tais preocupações são em grande parte bem-intencionadas. Outros, porém, acreditam que as grandes empresas de tecnologia têm claramente um conflito de interesse, beneficiando de menos regulamentação, e que estão deliberadamente a moldar uma narrativa de que as regulamentações de IA estão a matar a inovação. Independentemente disso, o problema permanece que o Regulamento da IA parece não ter adesão suficiente da indústria. Isso pode levar a ameaças à sua aplicação, tanto dentro como fora da Europa, com a administração Trump provavelmente disposta a aceitar pedidos para menos tolerância à regulamentação da tecnologia americana na Europa e à possível utilização de represálias.

 

Uma outra oportunidade perdida foi a de combinar a proteção ao cliente com investimentos sérios. Mesmo que o objetivo do Regulamento da IA não fosse facilitar diretamente investimentos em IA europeia, este não satisfaz completamente os apelos por mais e melhores investimentos para atingir as metas de competitividade. O Volt defende o triplo de financiamento para o Horizonte Europa, dedicando parte do financiamento adicional à IA.

 

Estar na vanguarda da inovação em IA também irá exigir a atração de talento de topo para a Europa. As atuais leis de migração devem ser melhoradas, como as propostas de Damian Boeselager, Eurodeputado do Volt, para o Cartão Azul (resposta da Europa ao Green Card americano), a europeização do estatuto de residência e uma nova iniciativa para os chamados "talent pools", um sistema de correspondência entre empregadores e candidatos a emprego de países não pertencentes à UE.

 

Em conclusão

Desde a aprovação do Regulamento há cerca de um ano, o campo da IA desenvolveu-se rapidamente e a regulamentação tornou-se uma parte ainda mais fundamental do debate. Se algo ficou claro, é a importância de acertar na aplicação do Regulamento. Embora o tempo seja escasso, as ameaças podem ser transformadas em oportunidades e as fraquezas em pontos fortes. No Volt, continuaremos a ter conversas importantes sobre IA de propósito geral, inovação, dados, cooperação e todos os outros elementos relevantes da IA e da tecnologia. Se estiver interessado em se juntar a nós e ajudar a moldar o futuro da IA na Europa, entre em contacto!

 

Artigo de opinião de Mario Giulio Bertorelli e Robert Praas. Os autores gostariam de agradecer a Matthias Buchorn, Klaus Pinhack, Eva van Rooijen, Eike Schultz, Wouter Van Der Wal, Basile Verhulst e Yannick Wehr pelos seus comentários e apoio.