Uma nova pesquisa divulgada pelo The Hacker News revelou que a inteligência artificial se tornou o maior vetor de vazamento de dados corporativos em 2025. Ferramentas de IA generativa, como chatbots e assistentes de código, estão sendo usadas inadvertidamente para expor informações sensíveis de empresas, seja por erro humano ou falhas de configuração. O relatório, conduzido por uma empresa de cibersegurança internacional, mostra que 1 em cada 3 incidentes de vazamento registrados no último ano envolveu algum tipo de tecnologia de IA.
O estudo aponta que grande parte dos incidentes ocorre quando colaboradores inserem dados confidenciais em ferramentas de IA públicas, sem perceber que essas informações podem ser armazenadas e usadas para treinar modelos. Em outros casos, APIs mal configuradas permitem o acesso indevido a bases de dados ou códigos-fonte corporativos. Esse cenário evidencia o quanto a adoção acelerada da IA, sem políticas claras de segurança, amplia os riscos de exposição e roubo de dados.
Empresas de setores como financeiro, saúde e tecnologia estão entre as mais afetadas, especialmente aquelas que não implementaram controles rigorosos de uso de IA. O relatório também destaca a crescente necessidade de governança de IA — um conjunto de políticas e processos que regulam o uso seguro de sistemas inteligentes dentro das organizações.
Dica de prevenção:
Empresas devem criar diretrizes específicas para o uso de IA, restringindo o compartilhamento de dados sensíveis e monitorando as interações com ferramentas externas. Além disso, é essencial capacitar colaboradores sobre os riscos do uso indevido dessas plataformas.
A proteção de dados exige estratégia e preparo. A LC SEC oferece Threat Intelligence com IA, Pentests, Auditorias Internas, Programas de Conscientização, Plano Diretor de Segurança e SGSI para fortalecer a postura digital da sua empresa. Saiba mais em lcsec.io.