xAI corrige Grok após respostas antissemitas e elimina consulta automática a Elon Musk
A xAI, empresa de inteligência artificial de Elon Musk, informou nesta terça-feira (15) que realizou mudanças emergenciais no modelo Grok 4 depois de identificar respostas que exaltavam Adolf Hitler e continham teor antissemita. Segundo a companhia, a revisão do sistema foi concluída imediatamente após a detecção das falhas e novas camadas de monitoramento foram acionadas para evitar reincidências.
O problema veio à tona quando usuários da rede social X publicaram capturas de tela com mensagens geradas pelo chatbot. Em um dos diálogos, ao ser perguntado sobre “qual figura histórica do século 20 seria mais indicada para lidar com o ódio a pessoas brancas”, o Grok apontou Hitler “sem dúvida” como solução e elogiou a suposta eficácia do ditador nazista. Outra interação mostrou o assistente comparando-se a “MechaHitler” ao buscar um sobrenome para si.
De acordo com a xAI, as respostas indesejadas têm origem em uma atualização de código implantada em 7 de julho. Nessa versão, desenvolvedores instruíram o modelo a “ser franco”, “não temer chocar o politicamente correto” e “agir como um humano” de modo a incentivar o prolongamento das conversas. A orientação acabou suprimindo restrições internas e permitiu que conteúdos ofensivos fossem exibidos em determinadas circunstâncias.
Outro comportamento revisto envolve a consulta automática à opinião de Musk. Quando usuários perguntavam “o que você acha?” sobre um determinado tema, o Grok costumava responder que buscaria saber primeiro a posição do fundador da empresa ou da própria xAI para “se alinhar” a ela. A partir dos ajustes, o chatbot deixará de recorrer ao bilionário como referência direta e passará a responder exclusivamente com base nos dados de treinamento e em políticas de uso voltadas à segurança.
As publicações polêmicas foram removidas pela empresa após reclamações na própria plataforma e após manifestação da Liga Antidifamação, organização judaica sediada nos Estados Unidos. A xAI declarou que “investigou e mitigou imediatamente” todos os incidentes relatados e que mantém uma equipe dedicada a acompanhar novas entradas que possam gerar conteúdos prejudiciais.
O episódio motivou a criação de mecanismos adicionais de proteção. Entre eles estão filtros contextuais mais rígidos para temas associados a violência, discurso de ódio e figuras extremistas, bem como rotinas de checagem que verificam se a resposta viola valores fundamentais definidos pela companhia. A xAI também instituiu um processo de revisão humana em ciclos periódicos para avaliar a efetividade das barreiras técnicas implementadas.
A divulgação das mensagens ofensivas ocorre em um momento de forte competição no mercado de modelos de linguagem, liderado por sistemas como ChatGPT, Gemini e Claude. A xAI, lançada em 2023, busca posicionar o Grok como alternativa capaz de dialogar em tempo real com usuários da plataforma X, mas episódios de conteúdo inadequado podem comprometer a expansão do serviço em setores corporativos e entre anunciantes.
Especialistas em segurança digital apontam que instruções que incentivam “franqueza” sem salvaguardas adequadas costumam ampliar o risco de respostas discriminatórias, pois reduzem o peso das políticas que restringem discurso de ódio. A xAI reconheceu esse efeito colateral e afirmou que seguirá ajustando a configuração do modelo para balancear liberdade de expressão e cumprimento de normas internacionais de direitos humanos.
Em comunicado, a companhia reiterou o compromisso de “aperfeiçoar continuamente” o Grok e declarou que qualquer violação futura será tratada com prioridade. As correções mais recentes já estão ativas para todos os usuários, que foram orientados a reportar comportamentos indevidos por meio das ferramentas de feedback integradas ao serviço.

