Meta rejeita código de boas práticas da União Europeia para IA

A Meta decidiu não aderir ao código de boas práticas elaborado pela Comissão Europeia para orientar provedores de modelos de inteligência artificial de uso geral. A recusa ocorreu poucas semanas antes da entrada em vigor das novas regras previstas no AI Act, conjunto de normas que passará a regular o desenvolvimento e a operação de sistemas de IA em todo o bloco.

Em publicação direcionada ao mercado, o diretor de assuntos globais da empresa, Joel Kaplan, afirmou que o texto proposto gera “incertezas jurídicas” para desenvolvedores e impõe exigências que, segundo ele, extrapolam o escopo do próprio AI Act. Para a companhia, a adesão ao documento voluntário representaria uma limitação ao avanço de modelos considerados de fronteira e ao surgimento de negócios europeus baseados nessas tecnologias.

O código de práticas foi apresentado pela Comissão no início de julho como um instrumento facultativo para auxiliar organizações a se prepararem para o cumprimento da legislação obrigatória. Entre os pontos principais, o documento estabelece a obrigatoriedade de manter documentação atualizada sobre o ciclo de vida das soluções de IA, proíbe o treinamento de modelos com conteúdo obtido de forma ilícita e determina que os provedores respeitem solicitações de detentores de direitos autorais que optem pela exclusão de suas obras de bases de dados.

Paralelamente ao debate sobre a adesão das empresas, o AI Act segue seu cronograma. A lei adota abordagem baseada em riscos e estabelece três camadas de classificação. Aplicações consideradas de risco inaceitável, como manipulação comportamental de usuários ou sistemas de pontuação social, serão banidas. Já setores enquadrados como de alto risco, a exemplo de biometria, reconhecimento facial, educação e processos de contratação, precisarão atender a requisitos rigorosos de gestão de risco, qualidade de dados, supervisão humana e registro em banco de dados europeu.

Organizações tecnológicas de diferentes regiões, incluindo Alphabet, Microsoft, Mistral AI e a própria Meta, solicitaram à Comissão Europeia o adiamento do cronograma, alegando necessidade de mais tempo para ajustar processos internos. O órgão executivo, contudo, manteve a data original e indicou que não pretende alterar o calendário.

No mesmo dia em que a Meta oficializou a recusa, a União Europeia divulgou diretrizes adicionais para fornecedores de modelos com potencial de risco sistêmico. As orientações valem para empresas que desenvolvem modelos de uso geral com grande impacto, categoria na qual se enquadram produtos de OpenAI, Anthropic, Google e Meta. As diretrizes esclarecem requisitos de transparência, avaliação de segurança, mitigação de riscos e proteção de direitos de propriedade intelectual.

Essas novas obrigações entrarão em vigor em 2 de agosto. Companhias que já disponibilizam modelos abrangidos pela regulação antes dessa data terão até 2 de agosto de 2027 para demonstrar conformidade total. Segundo a Comissão, o intervalo de três anos tem como objetivo permitir a adaptação sem frear a inovação, porém as etapas iniciais de documentação e avaliação de risco devem ser iniciadas imediatamente.

Enquanto a regulamentação avança, a decisão da Meta expõe divergências sobre a melhor forma de equilibrar inovação e salvaguardas. A empresa alega que os parâmetros voluntários criam obrigações que podem se sobrepor a exigências futuras, aumentando custos e incertezas. Já autoridades europeias sustentam que o código fornece orientação prática para que o setor se antecipe às exigências legais, reduzindo riscos de infração e fortalecendo a confiança do público na adoção de sistemas de IA.

Com a negativa da Meta, a Comissão Europeia deverá prosseguir na implementação do AI Act sem a participação formal da gigante tecnológica no documento de boas práticas. O próximo passo oficial será a publicação de atos delegados e normas técnicas complementares, etapa que detalhará métricas de avaliação e procedimentos de fiscalização. A partir daí, provedores que não adotarem as diretrizes poderão continuar operando, mas precisarão provar conformidade diretamente nos termos obrigatórios do AI Act, sujeitos a auditorias e eventuais sanções.