A Meta detectou e corrigiu uma falha crítica em seu chatbot Meta AI que permitia o acesso a prompts privados e respostas de outros usuários. O erro foi identificado em dezembro de 2024 e solucionado em janeiro, evitando um potencial vazamento maciço de dados sensíveis.
O problema surgiu na funcionalidade que permite editar perguntas anteriores: cada prompt e resposta recebia um identificador numérico sequencial. Bastava alterar esse número via ferramentas de desenvolvedor para visualizar interações alheias sem autenticação.
O bug foi reportado pelo pesquisador Sandeep Hodkasia, da AppSecure, em 26 de dezembro de 2024. A Meta lançou a correção em 24 de janeiro de 2025 e premiou o responsável com US$ 10.000 via bug bounty — sem evidência de exploração por terceiros.
Embora a Meta afirme que não houve uso malicioso antes da correção, a vulnerabilidade representava risco real de exposição de dados pessoais e confidenciais — como senhas, relatórios corporativos ou conversas íntimas — e poderia facilitar phishing ou roubo de informações.
Dica de prevenção
-
Seja cauteloso ao compartilhar dados sensíveis com chatbots, mesmo versões privadas.
-
Evite estar logado em plataformas sociais ao usar IA — conexões como a que integra o Meta AI podem cruzar perfis.
-
Acompanhe programas de bug bounty: são ferramentas importantes que ajudam a detectar falhas antes da exploração.
-
Empresas devem exigir auditoria de segurança para soluções com IA, incluindo testes de acesso e isolamento de dados.
A falha no Meta AI lembra que a privacidade em plataformas de IA não pode ser tomada como garantida. Alterações simples podem causar exposição grave de informação. Quem busca segurança deve priorizar ferramentas seguras e exigir governança robusta. A LC SEC oferece consultoria especializada em avaliação e proteção de soluções de IA — conheça nossas ofertas em lcsec.io