Um novo relatório da Salesforce revela uma crescente preocupação nas empresas com o uso de inteligência artificial fora do controle dos times de segurança — a chamada “Shadow AI”. O fenômeno traz riscos operacionais, legais e de conformidade, especialmente quando ferramentas são usadas sem autorização.
Segundo a pesquisa com mais de 5 mil líderes de TI e segurança, 71% estão preocupados com o uso de IA sem aprovação formal, e 77% reconhecem que suas empresas não têm políticas claras para isso
O problema se agrava com a facilidade de acesso a ferramentas como ChatGPT, Copilot, Gemini e similares. Funcionários recorrem a essas soluções para automatizar tarefas ou gerar conteúdo, muitas vezes sem entender os riscos associados — como vazamento de dados confidenciais, violações de compliance ou exposição a códigos maliciosos.
Além disso, 60% dos líderes relatam dificuldade em rastrear quais ferramentas estão sendo usadas e por quem, o que limita a visibilidade e o controle sobre fluxos de dados sensíveis. A ausência de políticas claras e treinamento agrava o cenário, especialmente em empresas com culturas mais flexíveis ou descentralizadas.
Dica de prevenção
-
Crie políticas claras sobre uso de IA, com definição do que é permitido, proibido e quais ferramentas são homologadas.
-
Adote soluções de DLP (Data Loss Prevention) e controle de acesso para identificar uso não autorizado.
-
Promova treinamentos periódicos sobre riscos da Shadow AI e boas práticas no uso de IA corporativa.
-
Envolva áreas jurídicas e de compliance na avaliação de novas ferramentas de IA.
A Shadow AI se tornou uma ameaça silenciosa, mas altamente impactante para as empresas. Sem visibilidade e controle, qualquer uso não autorizado de IA pode gerar exposição a riscos jurídicos e de segurança. Criar políticas, treinar equipes e monitorar acessos são medidas essenciais. Se você busca proteger seu ambiente digital contra riscos invisíveis como este, conheça os serviços da LC SEC. Acesse lcsec.io.