Meta corrige falha que expunha prompts privados do Meta AI
A Meta corrigiu uma falha crítica no Meta AI que expunha prompts privados de usuários. Identificada em dezembro de 2024 e corrigida em janeiro de 2025, a vulnerabilidade poderia permitir acesso não...
Resumo rapido
A Meta corrigiu uma falha crítica no Meta AI que expunha prompts privados de usuários. Identificada em dezembro de 2024 e corrigida em janeiro de 2025, a vulnerabilidade poderia permitir acesso não autorizado a dados sensíveis. A empresa não encontrou evidências de exploração antes da correção.
Neste artigo você vai aprender:
- Sobre a falha crítica no Meta AI e suas implicações.
- Como a vulnerabilidade funcionava e como foi descoberta.
- Os riscos associados à exposição de dados pessoais.
- Dicas de prevenção para o uso seguro de chatbots.
- A importância da auditoria de segurança em soluções de IA.
O que é a falha no Meta AI
A Meta detectou e corrigiu uma falha crítica em seu chatbot Meta AI que permitia o acesso a prompts privados e respostas de outros usuários. O erro foi identificado em dezembro de 2024 e solucionado em janeiro, evitando um potencial vazamento maciço de dados sensíveis.
Como funciona a vulnerabilidade
O problema surgiu na funcionalidade que permite editar perguntas anteriores: cada prompt e resposta recebia um identificador numérico sequencial. Bastava alterar esse número via ferramentas de desenvolvedor para visualizar interações alheias sem autenticação.
Sinais de alerta / Como identificar
O bug foi reportado pelo pesquisador Sandeep Hodkasia, da AppSecure, em 26 de dezembro de 2024. A Meta lançou a correção em 24 de janeiro de 2025 e premiou o responsável com US$ 10.000 via bug bounty — sem evidência de exploração por terceiros.
O que fazer agora / Como se proteger
Embora a Meta afirme que não houve uso malicioso antes da correção, a vulnerabilidade representava risco real de exposição de dados pessoais e confidenciais — como senhas, relatórios corporativos ou conversas íntimas — e poderia facilitar phishing ou roubo de informações.
Prevenção / Boas práticas
Dica de prevenção:
- Seja cauteloso ao compartilhar dados sensíveis com chatbots, mesmo versões privadas.
- Evite estar logado em plataformas sociais ao usar IA — conexões como a que integra o Meta AI podem cruzar perfis.
- Acompanhe programas de bug bounty: são ferramentas importantes que ajudam a detectar falhas antes da exploração.
- Empresas devem exigir auditoria de segurança para soluções com IA, incluindo testes de acesso e isolamento de dados.
A falha no Meta AI lembra que a privacidade em plataformas de IA não pode ser tomada como garantida. Alterações simples podem causar exposição grave de informação. Quem busca segurança deve priorizar ferramentas seguras e exigir governança robusta.
Proteja sua empresa com a LC Sec
A LC SEC oferece consultoria especializada em avaliação e proteção de soluções de IA. Conheça nossas ofertas em lcsec.io.
Receba as principais notícias de cibersegurança
Inscreva-se em nossa newsletter e receba artigos, alertas de vulnerabilidades e tendências diretamente no seu email.

