Meta corrige falha que expunha prompts privados de usuários em chatbot de IA

A Meta eliminou uma vulnerabilidade que permitia a qualquer usuário autenticado do Meta AI acessar prompts e respostas geradas por outras pessoas. O problema, relatado em 26 de dezembro de 2024 pelo pesquisador de segurança Sandeep Hodkasia, fundador da Appsecure, foi corrigido em 24 de janeiro de 2025. Segundo a empresa, não há indícios de uso malicioso antes da correção.

De acordo com Hodkasia, a falha estava ligada à função que autoriza o usuário a editar o próprio prompt para solicitar uma nova geração de texto ou imagem. Nessa operação, os servidores da companhia atribuíam ao prompt e ao resultado correspondente um identificador numérico único. Durante a análise do tráfego de rede em seu navegador, o pesquisador percebeu que bastava alterar manualmente esse número para que o sistema retornasse o conteúdo de outra conta, sem qualquer verificação de permissão.

A descoberta indicou que o processo de validação do lado do servidor não confirmava se o solicitante era, de fato, o autor do prompt em questão. Como os identificadores eram gerados em sequência previsível, um invasor poderia empregar ferramentas automatizadas para iterar rapidamente esses números, coletando grande volume de prompts e respostas alheias. Essa coleta abriria caminho para o vazamento de dados sensíveis, pois muitos usuários inserem informações pessoais ou confidenciais ao interagir com assistentes de IA.

Após a comunicação responsável, a Meta concedeu a Hodkasia uma recompensa de US$ 10 mil por meio de seu programa de bug bounty. Em nota, a empresa confirmou a correção e reiterou que a investigação interna não encontrou evidências de que terceiros tenham explorado a brecha antes da divulgação. A companhia não detalhou as medidas técnicas adotadas, mas afirmou ter reforçado as checagens de autorização em suas rotas de back-end.

A exposição ocorre em um momento de expansão acelerada de produtos de inteligência artificial por grandes empresas de tecnologia. Lançado no início de 2024, o aplicativo independente do Meta AI busca competir com serviços como o ChatGPT, mas já enfrentou contratempos de privacidade. Nos primeiros meses de operação, alguns usuários publicaram inadvertidamente conversas que julgavam privadas, revelando perguntas e respostas potencialmente sensíveis.

Especialistas em cibersegurança apontam que a pressa em levar sistemas de IA generativa ao mercado amplia o risco de falhas como a identificada por Hodkasia. Esses modelos dependem de infraestrutura complexa, que precisa equilibrar desempenho, escalabilidade e a proteção de dados introduzidos pelos próprios usuários. Quando vulnerabilidades afetam esse equilíbrio, o resultado pode comprometer informações pessoais, estratégicas ou proprietárias.

Além da revisão pontual no Meta AI, a correção reforça a importância de políticas de bug bounty para detectar problemas antes que se tornem incidentes. Programas de recompensas incentivam pesquisadores independentes a reportar descobertas de forma responsável, criando um canal colaborativo entre comunidade de segurança e grandes companhias. O pagamento feito ao fundador da Appsecure segue a prática estabelecida por diversos gigantes do setor.

A Meta não informou quantos usuários estavam potencialmente expostos nem se pretende divulgar relatórios técnicos adicionais sobre o caso. A empresa também não detalhou se a numeração de prompts foi modificada para padrões menos previsíveis ou se adotarão novos métodos de tokenização. Até o momento, a única confirmação pública é a de que o bug foi sanado e não houve exploração comprovada.

O episódio evidencia o desafio contínuo de assegurar privacidade e segurança em aplicações de IA generativa em larga escala. Enquanto novos recursos são adicionados para melhorar precisão e usabilidade, falhas como a observada podem surgir em camadas secundárias da arquitetura, tornando a auditoria constante um requisito fundamental para evitar vazamentos de dados de usuários.