O uso de Inteligência Artificial para gerar código se tornou cada vez mais comum entre desenvolvedores, acelerando entregas e aumentando a produtividade. No entanto, uma nova pesquisa revelou um problema preocupante: grande parte dos códigos criados por IA apresenta vulnerabilidades graves.
O estudo analisou mais de 2.800 trechos de código gerados por ferramentas populares de IA e constatou que 60% deles continham falhas de segurança. Os principais erros incluíam ausência de validação de entrada, uso de práticas inseguras e má gestão de autenticação. O mais alarmante é que muitos desses códigos são integrados diretamente em aplicações sem revisão adequada, o que pode abrir portas para ataques cibernéticos.
Além disso, os desenvolvedores, muitas vezes, confiam cegamente nos resultados entregues pelas IAs, acreditando que são seguros apenas por virem de fontes modernas. Isso demonstra uma falta de consciência sobre os riscos associados à automação na programação, especialmente em áreas críticas como autenticação, criptografia e comunicação com APIs.
Esse cenário acende um alerta importante para empresas que utilizam IA no desenvolvimento de software. Embora a tecnologia seja poderosa, ela não substitui a revisão humana nem as boas práticas de segurança.
Dica de prevenção:
Empresas devem implementar revisões manuais obrigatórias em qualquer código gerado por IA antes de colocá-lo em produção. Também é essencial aplicar testes de segurança automatizados, como SAST e DAST, além de realizar pentests periódicos para identificar falhas exploráveis. A capacitação dos desenvolvedores em segurança de aplicações (AppSec) é fundamental para garantir que erros comuns sejam evitados, mesmo com o uso de IA.
A segurança começa no código. Conte com a LC SEC para fortalecer sua base de desenvolvimento seguro. Conheça nossos serviços em lcsec.io