Blog

Pesquisadores descobrem falha para burlar restrições do GPT-5

Escrito por LC Security | 11/08/2025 12:58:55

Pesquisadores de segurança cibernética identificaram um novo método para “jailbreak” no GPT-5, capaz de contornar suas restrições de segurança e fazer o modelo gerar respostas normalmente bloqueadas. A técnica, que já circula em fóruns online, levanta preocupações sobre o uso indevido da inteligência artificial para fins maliciosos.

O “jailbreak” explora vulnerabilidades na forma como o modelo interpreta comandos e contexto, permitindo que usuários acessem conteúdos proibidos, como instruções para atividades ilegais, geração de desinformação e até códigos de malware. Embora a OpenAI adote filtros avançados e monitoramento contínuo, pesquisadores alertam que novas variantes dessas técnicas surgem rapidamente.

A falha é particularmente preocupante porque pode ser usada para automatizar ataques cibernéticos, criar campanhas de phishing mais convincentes ou produzir conteúdos manipulativos em escala. Além disso, demonstra que sistemas de IA, por mais avançados que sejam, ainda dependem de camadas robustas de segurança e políticas de uso bem definidas para evitar abusos.

Em resposta, a OpenAI informou estar trabalhando para corrigir a brecha e reforçar as proteções do GPT-5, além de atualizar suas políticas de detecção e bloqueio de prompts maliciosos. Especialistas recomendam que empresas que utilizam IA generativa para operações críticas implementem controles adicionais, como revisão humana e filtros próprios de segurança.

Dica de prevenção:
Organizações que fazem uso de modelos de IA devem realizar auditorias periódicas nos sistemas, aplicar camadas extras de moderação e monitoramento e garantir que apenas usuários autorizados tenham acesso. Treinamentos sobre riscos e boas práticas também são essenciais para evitar a exploração dessas vulnerabilidades.

O caso do GPT-5 reforça a necessidade de tratar a inteligência artificial como parte integrante da estratégia de segurança cibernética. A LC SEC oferece consultoria e criação de políticas para uso seguro de IA em empresas, reduzindo riscos e fortalecendo a conformidade. Saiba mais em lcsec.io