Com a rápida adoção de soluções baseadas em inteligência artificial (IA), um novo alerta começa a preocupar especialistas: a maioria das empresas ainda não está preparada para proteger seus sistemas de IA contra ameaças cibernéticas. Segundo um relatório da MITRE e do Boston Consulting Group (BCG), existe uma lacuna crítica entre o uso de IA e a segurança desses sistemas.
O estudo mostrou que 85% das empresas já utilizam IA generativa ou modelos de aprendizado de máquina em suas operações. No entanto, apenas 25% possuem políticas específicas de segurança voltadas para esses sistemas. Isso cria um ambiente propício para ataques como manipulação de modelos (model poisoning), extração de dados sensíveis e vazamento de prompts confidenciais.
Muitas organizações implementam IA com foco exclusivo em inovação e eficiência, mas negligenciam a exposição de dados, o uso indevido de modelos por terceiros e a necessidade de auditar os sistemas de forma contínua. Além disso, poucos profissionais de segurança têm experiência prática para avaliar riscos específicos da IA, o que dificulta a criação de defesas eficazes.
A pesquisa também aponta que, em muitos casos, o desenvolvimento de IA ocorre fora dos processos tradicionais de TI, aumentando a complexidade de controle e rastreabilidade dos riscos.
Dica de Prevenção:
Inclua a segurança de IA nas políticas de governança da empresa. Estabeleça controles de acesso, registre e monitore o uso dos modelos, implemente testes adversariais e mantenha equipes multidisciplinares treinadas para atuar nesse novo cenário.
Adotar IA com responsabilidade também é proteger seu negócio dos riscos que ela pode gerar. A LC SEC ajuda sua empresa a implementar soluções de IA com segurança, protegendo seus dados, modelos e reputação. Saiba mais em lcsec.io