A Meta corrigiu uma falha crítica no Meta AI que expunha prompts privados de usuários. Identificada em dezembro de 2024 e corrigida em janeiro de 2025, a vulnerabilidade poderia permitir acesso não...
A Meta corrigiu uma falha crítica no Meta AI que expunha prompts privados de usuários. Identificada em dezembro de 2024 e corrigida em janeiro de 2025, a vulnerabilidade poderia permitir acesso não autorizado a dados sensíveis. A empresa não encontrou evidências de exploração antes da correção.
A Meta detectou e corrigiu uma falha crítica em seu chatbot Meta AI que permitia o acesso a prompts privados e respostas de outros usuários. O erro foi identificado em dezembro de 2024 e solucionado em janeiro, evitando um potencial vazamento maciço de dados sensíveis.
O problema surgiu na funcionalidade que permite editar perguntas anteriores: cada prompt e resposta recebia um identificador numérico sequencial. Bastava alterar esse número via ferramentas de desenvolvedor para visualizar interações alheias sem autenticação.
O bug foi reportado pelo pesquisador Sandeep Hodkasia, da AppSecure, em 26 de dezembro de 2024. A Meta lançou a correção em 24 de janeiro de 2025 e premiou o responsável com US$ 10.000 via bug bounty — sem evidência de exploração por terceiros.
Embora a Meta afirme que não houve uso malicioso antes da correção, a vulnerabilidade representava risco real de exposição de dados pessoais e confidenciais — como senhas, relatórios corporativos ou conversas íntimas — e poderia facilitar phishing ou roubo de informações.
Dica de prevenção:
A falha no Meta AI lembra que a privacidade em plataformas de IA não pode ser tomada como garantida. Alterações simples podem causar exposição grave de informação. Quem busca segurança deve priorizar ferramentas seguras e exigir governança robusta.
A LC SEC oferece consultoria especializada em avaliação e proteção de soluções de IA. Conheça nossas ofertas em lcsec.io.