A OpenAI baniu contas do ChatGPT usadas por grupos de ameaças estatais da Rússia, China e Irã. Essas contas eram utilizadas para atividades maliciosas como o desenvolvimento de malware, campanhas d...
A OpenAI baniu contas do ChatGPT usadas por grupos de ameaças estatais da Rússia, China e Irã. Essas contas eram utilizadas para atividades maliciosas como o desenvolvimento de malware, campanhas de desinformação e pesquisas sobre tecnologias militares. A OpenAI agora adota uma postura proativa para identificar e prevenir abusos de sua plataforma.
A OpenAI anunciou que baniu contas do ChatGPT operadas por grupos de ameaças estatais da Rússia, China e Irã, que utilizavam o chatbot para atividades maliciosas, como desenvolvimento de malware e criação de campanhas de desinformação em redes sociais.
Empresas de segurança, como a Western Illinois University Cybersecurity Center, relataram que as contas banidas estavam sendo usadas para gerar código de malware, automatizar postagens políticas e calcular infraestrutura de comando e controle.
Além disso, houve campanhas de influência com comentários coordenados, abordando temas geopolíticos e apoiando políticas controversas, como a operação “Uncle Spam”, associada a atores ligados à China.
A OpenAI destacou que saiu do modo reativo e passou a atuar de forma proativa, identificando padrões de abuso, como a criação de contas temporárias e simulação de engajamento. A colaboração com plataformas e órgãos de segurança é essencial para a identificação de atividades suspeitas.
Para empresas que desejam proteger-se desse tipo de uso indevido da IA, recomenda-se adotar as seguintes práticas:
O recente banimento de contas mal-intencionadas do ChatGPT demonstra que, embora a IA gere grandes oportunidades, ela também pode ser explorada para atividades perigosas. Empregar controles, conscientização e tecnologias preventivas é fundamental para mitigar esses riscos.
As contas foram banidas por estarem envolvidas em atividades maliciosas, como desenvolvimento de malware e campanhas de desinformação.
A OpenAI agora adota uma postura proativa, identificando padrões de abuso e colaborando com plataformas e órgãos de segurança.
As empresas devem implementar monitoramento contínuo, políticas de acesso restritas e considerar a contratação de serviços especializados de segurança.
A conscientização é crucial para prevenir o uso indevido da IA e proteger a reputação das organizações.
Conheça os serviços da LC SEC, especializados em segurança digital e proteção proativa contra ameaças que envolvem IA.