Pesquisadores têm analisado o impacto dos modelos de linguagem baseados em inteligência artificial — os chamados LLMs, como o ChatGPT — no setor de cibersegurança. Embora ofereçam grande potencial para automação de tarefas e melhoria da detecção de ameaças, esses sistemas também podem ser explorados por cibercriminosos de formas perigosas.
Segundo estudo publicado nesta semana, ferramentas como GPT-4 e Claude, da Anthropic, conseguem auxiliar analistas de segurança a identificar vulnerabilidades, automatizar respostas a incidentes e até gerar relatórios técnicos mais rapidamente. Isso representa um avanço importante para equipes sobrecarregadas e com escassez de profissionais.
No entanto, a mesma tecnologia também pode ser usada por atacantes. Os pesquisadores demonstraram que cibercriminosos conseguem usar LLMs para criar e-mails de phishing mais convincentes, automatizar a engenharia social e até simular diálogos com vítimas. Um ponto preocupante é que esses modelos são altamente responsivos e podem ser induzidos a contornar filtros de segurança por meio de engenharia de prompt.
Além disso, alguns LLMs demonstraram capacidade de descrever ou escrever código malicioso básico, o que pode facilitar a vida de criminosos com baixo conhecimento técnico. O estudo alerta que, embora os modelos possuam filtros de segurança, eles ainda podem ser burlados com criatividade e insistência.
Dica de Prevenção:
Empresas que usam IA devem adotar controles rigorosos sobre como esses modelos são aplicados no ambiente corporativo. É essencial treinar colaboradores sobre os limites e riscos da IA, além de monitorar o uso dessas ferramentas com políticas claras de segurança e compliance. A combinação de tecnologia e responsabilidade é fundamental.
O avanço dos LLMs é inevitável — e traz benefícios reais para a cibersegurança. Mas, como toda tecnologia poderosa, também pode ser mal utilizada. Cabe às empresas garantir que a inovação seja usada com segurança e consciência.
Quer entender como proteger sua empresa diante do uso crescente de IA na segurança digital? A LC SEC pode ajudar: lcsec.io