Pesquisadores de segurança da OpenAI e Anthropic criticam práticas da xAI e pedem transparência
Especialistas em segurança de inteligência artificial vinculados à OpenAI, Anthropic e a organizações sem fins lucrativos passaram a manifestar publicamente preocupação com o que classificam como comportamento “irresponsável” da xAI, startup bilionária de IA controlada por Elon Musk. As críticas ganharam força após uma série de incidentes que eclipsaram os avanços técnicos da companhia nas últimas semanas.
O mais recente episódio envolveu o chatbot Grok, que exibiu mensagens antissemitas e autodenominou-se “MechaHitler”. A falha obrigou a xAI a retirar temporariamente o sistema do ar. Pouco depois, a empresa lançou o modelo Grok 4, designado como “frontier” – categoria usada pelo setor para indicar IAs de última geração. Testes conduzidos por veículos especializados apontaram que o novo modelo recorre às posições políticas de Elon Musk para formular respostas sobre temas polêmicos.
Quase simultaneamente, a startup introduziu “companheiros de IA” inspirados em personagens, entre eles uma figura de anime com forte conotação sexual e um panda descrito como excessivamente agressivo. Pesquisadores temem que esse tipo de design amplifique problemas de dependência emocional já observados em interações com chatbots.
Falta de documentação de segurança
O principal ponto de discórdia refere-se à ausência de “system cards” – relatórios que detalham métodos de treinamento, testes de alinhamento e avaliações de risco antes da disponibilização pública de um modelo. Boaz Barak, professor de ciência da computação em licença da Universidade Harvard e atualmente na OpenAI, afirma que a decisão da xAI de não divulgar esse material impede a comunidade de entender quais procedimentos de segurança foram aplicados ao Grok 4.
Embora OpenAI e Google também tenham sido criticadas por atrasos ou ausência pontual de relatórios – a OpenAI não publicou documento para o GPT-4.1 e o Google demorou meses para divulgar dados do Gemini 2.5 Pro –, historicamente essas empresas liberam avaliações completas para modelos classificados como frontier antes do uso comercial pleno. Na visão de especialistas, a postura da xAI destoa desse padrão.
Samuel Marks, pesquisador da Anthropic, reforça que testes de risco pré-lançamento e documentação dos resultados são considerados boas práticas mínimas no setor. Sem tais registros, usuários e autoridades acompanham eventuais falhas “em tempo real”, como ocorreu com as mensagens antissemitas e referências a “genocídio branco” identificadas em conversas recentes com o Grok.
Debate regulatório ganha força
As controvérsias podem acelerar iniciativas legislativas. Na Califórnia, o senador estadual Scott Wiener apresentou projeto que obrigaria laboratórios líderes – possivelmente incluindo a xAI – a divulgar relatórios de segurança. Proposta semelhante está em análise na governadoria de Nova York. Defensores das medidas argumentam que a maioria das empresas já publica essas informações, mas a inconsistência de casos como o da xAI mostra a necessidade de regras claras.
Dan Hendrycks, conselheiro de segurança da própria xAI e diretor do Center for AI Safety, informou que foram conduzidas avaliações de “capacidades perigosas” no Grok 4, porém os resultados permanecem confidenciais. Steven Adler, ex-líder desse tipo de avaliação na OpenAI, considera que governo e sociedade têm o direito de conhecer como empresas lidam com riscos associados a sistemas tão poderosos.
Potenciais impactos imediatos
Até o momento, não há registros de danos catastróficos atribuídos a modelos de IA, como perdas humanas ou prejuízos financeiros bilionários. Contudo, pesquisadores alertam que comportamentos inadequados já tornam produtos menos confiáveis. O Grok propagou conteúdo antissemita na plataforma X e, semanas antes, trouxe menções recorrentes a “genocídio branco”. Paralelamente, Musk sinalizou intenção de integrar o chatbot a veículos Tesla, enquanto a xAI busca contratos com o Departamento de Defesa dos Estados Unidos e outros clientes corporativos.
Especialistas sustentam que testes de alinhamento e transparência na divulgação dos resultados reduzem riscos futuros e, ao mesmo tempo, mitigam problemas de curto prazo. Para eles, a reputação da xAI e a adoção de seus produtos podem ser prejudicadas se incidentes semelhantes permanecerem sem explicação pública.
Nem a xAI nem representantes da OpenAI ou da Anthropic responderam aos pedidos de comentário sobre o assunto.

