Uma vulnerabilidade no navegador do ChatGPT pode expor e-mails, senhas e tokens de acesso devido ao armazenamento inadvertido de informações sensíveis. É crucial que empresas adotem políticas de us...
Uma vulnerabilidade no navegador do ChatGPT pode expor e-mails, senhas e tokens de acesso devido ao armazenamento inadvertido de informações sensíveis. É crucial que empresas adotem políticas de uso seguro e realizem auditorias de segurança para mitigar riscos.
Pesquisadores de segurança revelaram uma vulnerabilidade no navegador do ChatGPT que pode permitir o vazamento de e-mails, senhas e tokens de acesso. De acordo com a Folha de S.Paulo, o problema está relacionado à forma como o navegador integrado do modelo interage com sites externos, podendo armazenar informações sensíveis em cache e transmiti-las inadvertidamente a terceiros.
A falha foi demonstrada por especialistas em um teste controlado, onde dados inseridos em formulários online acabaram sendo expostos a outros usuários do mesmo ambiente de navegação. O risco aumenta quando o ChatGPT é utilizado para automatizar tarefas que envolvem login, integração com APIs ou consultas a sistemas internos, abrindo brechas para ataques de coleta de credenciais e engenharia social.
Embora a OpenAI tenha agido rapidamente para corrigir o problema e reforçar medidas de segurança, o caso reacende o debate sobre o uso seguro de ferramentas baseadas em inteligência artificial conectadas à internet. Mesmo pequenas falhas de implementação podem ter impactos significativos quando envolvem milhões de usuários e dados corporativos.
Dica de prevenção: empresas que utilizam ferramentas de IA em fluxos corporativos devem estabelecer políticas de uso seguro, evitando o compartilhamento de informações sensíveis em plataformas de terceiros. É recomendável realizar auditorias de segurança em integrações com IA, aplicar pentests periódicos e promover conscientização dos colaboradores sobre riscos de exposição de dados em aplicações automatizadas.
A adoção de tecnologias baseadas em IA deve vir acompanhada de práticas robustas de segurança e conformidade. Para garantir que sua empresa use essas soluções com segurança, conte com a LC SEC — especialista em Penteste, Threat Intelligence com IA, Auditoria Interna, Conscientização, Plano Diretor de Segurança e SGSI.
Saiba mais em lcsec.io
A falha pode expor e-mails, senhas e tokens de acesso de usuários, comprometendo a segurança das informações sensíveis.
Se sua empresa utiliza o ChatGPT para automatizar tarefas que envolvem login ou integração com APIs, é importante revisar as práticas de segurança e realizar auditorias.
A OpenAI agiu rapidamente para corrigir o problema e reforçar medidas de segurança, mas a responsabilidade também recai sobre os usuários e empresas que utilizam a ferramenta.
Conte com a LC Sec para garantir a segurança de suas operações com inteligência artificial. Realizamos auditorias, pentests e oferecemos consultoria especializada.