Voltar ao início do blog

Meta corrige falha que expunha prompts privados do Meta AI

A Meta detectou e corrigiu uma falha crítica em seu chatbot Meta AI que permitia o acesso a prompts privados e respostas de outros usuários. O erro foi identificado em dezembro de 2024 e solucionado em janeiro, evitando um potencial vazamento maciço de dados sensíveis.

O problema surgiu na funcionalidade que permite editar perguntas anteriores: cada prompt e resposta recebia um identificador numérico sequencial. Bastava alterar esse número via ferramentas de desenvolvedor para visualizar interações alheias sem autenticação.

O bug foi reportado pelo pesquisador Sandeep Hodkasia, da AppSecure, em 26 de dezembro de 2024. A Meta lançou a correção em 24 de janeiro de 2025 e premiou o responsável com US$ 10.000 via bug bounty — sem evidência de exploração por terceiros.

Embora a Meta afirme que não houve uso malicioso antes da correção, a vulnerabilidade representava risco real de exposição de dados pessoais e confidenciais — como senhas, relatórios corporativos ou conversas íntimas — e poderia facilitar phishing ou roubo de informações.

Dica de prevenção

  • Seja cauteloso ao compartilhar dados sensíveis com chatbots, mesmo versões privadas.

  • Evite estar logado em plataformas sociais ao usar IA — conexões como a que integra o Meta AI podem cruzar perfis.

  • Acompanhe programas de bug bounty: são ferramentas importantes que ajudam a detectar falhas antes da exploração.

  • Empresas devem exigir auditoria de segurança para soluções com IA, incluindo testes de acesso e isolamento de dados.

A falha no Meta AI lembra que a privacidade em plataformas de IA não pode ser tomada como garantida. Alterações simples podem causar exposição grave de informação. Quem busca segurança deve priorizar ferramentas seguras e exigir governança robusta. A LC SEC oferece consultoria especializada em avaliação e proteção de soluções de IA — conheça nossas ofertas em lcsec.io

Compartilhe nas redes sociais: