Pesquisadores de segurança revelaram uma vulnerabilidade no navegador do ChatGPT que pode permitir o vazamento de e-mails, senhas e tokens de acesso. De acordo com a Folha de S.Paulo, o problema está relacionado à forma como o navegador integrado do modelo interage com sites externos, podendo armazenar informações sensíveis em cache e transmiti-las inadvertidamente a terceiros.
A falha foi demonstrada por especialistas em um teste controlado, em que dados inseridos em formulários online acabaram sendo expostos a outros usuários do mesmo ambiente de navegação. O risco aumenta quando o ChatGPT é utilizado para automatizar tarefas que envolvem login, integração com APIs ou consultas a sistemas internos, abrindo brechas para ataques de coleta de credenciais e engenharia social.
Embora a OpenAI tenha agido rapidamente para corrigir o problema e reforçar medidas de segurança, o caso reacende o debate sobre o uso seguro de ferramentas baseadas em inteligência artificial conectadas à internet. Mesmo pequenas falhas de implementação podem ter impactos significativos quando envolvem milhões de usuários e dados corporativos.
Dica de prevenção: empresas que utilizam ferramentas de IA em fluxos corporativos devem estabelecer políticas de uso seguro, evitando o compartilhamento de informações sensíveis em plataformas de terceiros. É recomendável realizar auditorias de segurança em integrações com IA, aplicar pentests periódicos e promover conscientização dos colaboradores sobre riscos de exposição de dados em aplicações automatizadas.
A adoção de tecnologias baseadas em IA deve vir acompanhada de práticas robustas de segurança e conformidade. Para garantir que sua empresa use essas soluções com segurança, conte com a LC SEC — especialista em Penteste, Threat Intelligence com IA, Auditoria Interna, Conscientização, Plano Diretor de Segurança e SGSI.
Saiba mais em lcsec.io

