Uma grave vulnerabilidade foi descoberta no Gemini CLI, assistente de codificação da Google alimentado por inteligência artificial. A falha permitia que hackers executassem comandos maliciosos no terminal da vítima de forma silenciosa e sem qualquer aviso, ao explorar trechos de código aparentemente inofensivos.
O problema surgiu da forma como o Gemini interpretava instruções em comandos do tipo “pip install”. Por trás desses comandos, o assistente adicionava sugestões de parâmetros — como --index-url
— que redirecionavam o download para fontes externas e potencialmente maliciosas. Em situações de cópia e colagem direta pelo usuário, o risco era ainda maior, pois o código malicioso era executado automaticamente no terminal.
O pesquisador Danijela Živković, da empresa de cibersegurança r2c, foi quem identificou a falha e alertou o Google, que prontamente lançou uma correção em julho de 2025. Mesmo após a correção, a situação acende um alerta importante sobre o uso de ferramentas baseadas em IA para gerar comandos executáveis.
Vale lembrar que não se trata de um ataque isolado, mas de um tipo de vulnerabilidade conhecida como “prompt injection”, cada vez mais comum em soluções que integram inteligência artificial a sistemas operacionais e interfaces sensíveis.
Dica de Prevenção:
Evite executar comandos de terminal gerados por ferramentas de IA sem antes revisá-los cuidadosamente. Sempre que possível, utilize ambientes de teste (sandbox) e mantenha soluções de segurança atualizadas. Se você utiliza assistentes de código, desative a execução automática de sugestões e verifique a origem de cada repositório indicado.
Falhas como a do Gemini CLI mostram como tecnologias inovadoras também podem ser portas de entrada para ameaças sofisticadas. A combinação de IA e comandos de terminal exige atenção redobrada por parte de desenvolvedores e equipes de segurança. A LC SEC oferece consultoria especializada para empresas que desejam proteger seus ambientes contra riscos emergentes. Conheça nossas soluções em lcsec.io