A OpenAI anunciou que baniu contas do ChatGPT operadas por grupos de ameaças estatais da Rússia, China e Irã, que utilizavam o chatbot para atividades maliciosas, como desenvolvimento de malware, criação de campanhas de desinformação em redes sociais e até pesquisas relacionadas a tecnologias militares e de satélites dos EUA
Empresas de segurança, como a Western Illinois University Cybersecurity Center, relataram que essas contas estavam sendo usadas para gerar código de malware, calcular infraestrutura de comando e controle, e automatizar posts políticos em plataformas como X, Reddit e Facebook
Além disso, houve campanhas de influência envolvendo comentários coordenados, com temas geopolíticos e apoio a políticas controversas, incluindo ações como a operação chamada “Uncle Spam”, associada a atores ligados à China
A OpenAI destacou que saiu do modo reativo e passou a atuar de forma proativa, identificando padrões de abuso — como criação de contas temporárias, simulação de engajamento e requisições de código malicioso — colaborando com plataformas e órgãos de segurança
Para empresas que desejam proteger-se desse tipo de uso indevido da IA, recomenda-se adotar:
Monitoramento contínuo de logs de uso da API ou plataforma;
Políticas de gerenciamento de acesso estritas e autenticação multifator;
Contratação de serviços especializados de segurança que levem em conta o uso de IA, como os oferecidos pela LC SEC.
O recente banimento de contas mal-intencionadas do ChatGPT mostra que, embora a IA gere grandes oportunidades, ela também pode ser explorada para atividades perigosas. Empregamos controles, conscientização e tecnologias preventivas para mitigar esses riscos e proteger a reputação das organizações. Convidamos você a conhecer os serviços da LC SEC, especializados em segurança digital e proteção proativa contra ameaças que envolvem IA. Acesse: lcsec.io