Voltar ao início do blog

OpenAI e Sora ampliam debate sobre riscos e segurança na geração de vídeos com IA

A OpenAI voltou aos holofotes com o avanço do Sora, seu modelo de inteligência artificial capaz de criar vídeos realistas a partir de descrições em texto. A tecnologia impressiona pela qualidade visual, mas também reacende preocupações sobre segurança digital, manipulação de conteúdo e privacidade. Especialistas alertam que, assim como ocorreu com os deepfakes, o uso indevido dessa ferramenta pode gerar golpes, fraudes e desinformação em larga escala.

De acordo com o portal GBHackers, criminosos já demonstram interesse em explorar o Sora e ferramentas semelhantes para produzir vídeos falsos de executivos, autoridades e marcas, com o objetivo de aplicar golpes de engenharia social e campanhas de phishing mais convincentes. O risco aumenta porque os conteúdos gerados são altamente realistas, dificultando a distinção entre o que é autêntico e o que foi manipulado digitalmente.

A OpenAI afirma estar implementando camadas de segurança e marca d’água digital invisível para rastrear conteúdos produzidos pelo Sora, além de restringir o acesso à ferramenta a grupos selecionados. No entanto, especialistas defendem que a regulamentação e a conscientização do público serão fundamentais para mitigar o impacto de vídeos sintéticos maliciosos.

Dica de prevenção:
Empresas devem reforçar políticas de verificação de identidade visual e comunicação oficial, evitando exposição a fraudes baseadas em vídeos falsos. Programas de conscientização em segurança são essenciais para treinar colaboradores a reconhecer sinais de manipulação digital e golpes de engenharia social.

A evolução da IA generativa traz oportunidades, mas também desafios sérios à segurança e à confiança digital. Para proteger sua organização contra fraudes e manipulações avançadas, conheça os serviços da LC SEC — especialistas em Pentest, Threat Intelligence com IA, Auditoria Interna, Conscientização e SGSI — em lcsec.io.

Compartilhe nas redes sociais: