Meta corrige falha que expunha prompts privados do chatbot Meta AI

A Meta implementou uma correção para uma vulnerabilidade que tornava possível a qualquer usuário autenticado visualizar prompts e respostas geradas pelo chatbot Meta AI pertencentes a outras pessoas. O problema de segurança foi relatado de forma privada em 26 de dezembro de 2024 pelo pesquisador Sandeep Hodkasia, fundador da empresa de testes Appsecure, e foi solucionado em 24 de janeiro de 2025.

Segundo Hodkasia, a falha estava relacionada ao recurso que permite editar prompts já enviados ao Meta AI para gerar novas versões de textos ou imagens. Durante a edição, os servidores da companhia atribuem um número de identificação exclusivo ao prompt original e ao conteúdo produzido pela inteligência artificial. Ao analisar o tráfego de rede no navegador, o pesquisador percebeu que bastava alterar manualmente esse número para receber, em resposta, o prompt e o resultado de outro usuário completamente alheio à solicitação.

Na prática, os servidores da Meta não verificavam se a pessoa que requisitava um determinado conteúdo tinha autorização para acessá-lo. Além disso, os números gerados seguiam uma sequência previsível, o que facilitaria a exploração por agentes mal-intencionados. Com ferramentas de automação, seria possível trocar rapidamente esses identificadores e coletar em larga escala conversas privadas armazenadas na plataforma.

Ao reconhecer a descoberta, a Meta recompensou Hodkasia com US$ 10.000 por meio de seu programa de recompensas por bugs. A empresa afirmou ter conduzido uma investigação interna e não encontrou indícios de uso malicioso da vulnerabilidade antes da correção. A atualização que fechou a brecha foi distribuída em janeiro, restaurando a verificação de permissões nos servidores responsáveis pelos dados do chatbot.

O episódio ocorre em um momento em que grandes empresas de tecnologia correm para lançar e aprimorar produtos baseados em inteligência artificial, frequentemente enfrentando pressões para manter a segurança e a privacidade dos usuários. O próprio aplicativo autônomo do Meta AI, apresentado no decorrer de 2024 como concorrente direto de serviços como o ChatGPT, já havia passado por contratempos iniciais, quando alguns usuários compartilharam publicamente, sem querer, conversas que acreditavam estar restritas ao âmbito privado.

Neste caso específico, contudo, os dados não ficavam expostos abertamente na internet. A vulnerabilidade dependia de manipulação ativa do identificador numérico por alguém que estivesse logado no ecossistema da Meta. Ainda assim, o fato de as sequências serem facilmente adivinhadas ampliava o risco: um invasor poderia escrever um script para percorrer milhares de IDs em poucos minutos, copiando comandos e resultados gerados por outras pessoas.

Especialistas apontam que modelos de linguagem treinados em larga escala costumam lidar com informações sensíveis fornecidas pelos próprios usuários. Quando esses dados vazam, podem revelar detalhes pessoais, segredos corporativos ou até propriedade intelectual. Por isso, falhas de autorização, mesmo que simples, recebem prioridade alta em programas de bug bounty.

O caso também evidencia a importância de análises regulares de segurança em novos recursos de inteligência artificial, sobretudo nos que permitem edição ou reaproveitamento de conteúdo já criado. Ao corrigir a brecha antes de qualquer exploração detectada, a Meta evitou um incidente de maior proporção e reforçou a necessidade de salvaguardas adicionais na interface de programação de seus chatbots.

Com a vulnerabilidade resolvida, o Meta AI segue operando normalmente. A empresa não divulgou detalhes técnicos da atualização, prática comum para impedir tentativas de reprodução do erro. Já Hodkasia destacou que continuará pesquisando a segurança de ferramentas de inteligência artificial, setor que, para ele, exigirá inspeção constante à medida que novos recursos forem disponibilizados ao público.