Pesquisadores de segurança identificaram vulnerabilidades críticas em motores de inferência de inteligência artificial usados por empresas como Meta, Nvidia e Microsoft. Esses sistemas são responsáveis por executar modelos de IA em ambientes corporativos e, segundo o relatório, falhas semelhantes estavam espalhadas em diferentes projetos, todas ligadas ao uso inseguro de ZeroMQ e do módulo pickle do Python, que permite a desserialização de objetos. Esse padrão, chamado de ShadowMQ, acabou se repetindo em diversos frameworks devido à reutilização de código.
O problema começou em um componente do Llama, da Meta, que utilizava o método recv_pyobj() para desserializar dados recebidos pela rede. Como o socket ZeroMQ estava exposto, um invasor poderia enviar conteúdo malicioso e executar código remoto. A falha originou o CVE-2024-50050, corrigido pela empresa. Porém, o mesmo padrão foi encontrado em soluções como Nvidia TensorRT-LLM, Microsoft Sarathi-Serve, Modular Max Server, vLLM e SGLang. Alguns desses projetos já foram corrigidos, enquanto outros continuam vulneráveis.
Segundo os pesquisadores, essa brecha permite que atacantes transformem um único nó comprometido em porta de entrada para controlar todo o cluster, roubar modelos, escalar privilégios ou instalar mineradores de criptomoedas. A situação mostra como a pressa em desenvolver soluções de IA e a prática de copiar trechos de código sem revisão de segurança podem ampliar riscos rapidamente.
Outro ponto de atenção destacado no relatório envolve o editor de código Cursor, baseado no Visual Studio Code. Pesquisadores demonstraram como extensões maliciosas ou servidores MCP preparados por atacantes podem injetar JavaScript dentro do ambiente, criando páginas falsas para roubo de credenciais e permitindo acesso total ao sistema de arquivos do desenvolvedor.
Dica de prevenção
Empresas devem revisar frameworks de IA utilizados internamente, desabilitar qualquer desserialização insegura, validar configurações de rede e aplicar atualizações fornecidas pelos fornecedores. No caso de IDEs, é essencial verificar extensões instaladas, desativar execuções automáticas e restringir permissões de APIs e servidores MCP.
Conclusão
Esses incidentes revelam a urgência de tratar a segurança em IA com o mesmo rigor aplicado a sistemas tradicionais. Para fortalecer a proteção da sua empresa com pentests, threat intelligence com IA, auditorias internas e políticas robustas de segurança, conheça os serviços da LC SEC em lcsec.io.