O aumento da menção a riscos relacionados à inteligência artificial (IA) em relatórios corporativos reflete a crescente preocupação das empresas com vazamento de dados e decisões automatizadas. Com...
O aumento da menção a riscos relacionados à inteligência artificial (IA) em relatórios corporativos reflete a crescente preocupação das empresas com vazamento de dados e decisões automatizadas. Companhias de setores diversos estão sendo pressionadas a detalhar suas estratégias de mitigação de riscos, evidenciando a necessidade de governança sólida na adoção de IA.
Um levantamento da Cybersecurity Dive mostrou que o número de empresas que mencionam riscos relacionados à inteligência artificial (IA) em seus relatórios corporativos cresceu significativamente em 2025. A tendência reflete a preocupação crescente com possíveis impactos de vazamento de dados, decisões automatizadas incorretas, uso indevido de algoritmos e dependência de fornecedores de IA.
Segundo o estudo, companhias de setores como finanças, saúde e tecnologia estão sendo pressionadas por acionistas e órgãos reguladores a detalhar como avaliam e mitigam riscos de IA. Muitos desses documentos citam temores de que sistemas generativos possam produzir informações incorretas, expor dados sensíveis ou violar regras de privacidade e compliance, especialmente quando integrados a fluxos corporativos sem governança clara.
Empresas norte-americanas listadas na bolsa, como Microsoft, Google e JPMorgan, têm inserido seções específicas sobre IA em relatórios de riscos (10-K e 8-K), reconhecendo que a rápida adoção de modelos generativos exige controles de segurança robustos e políticas éticas transparentes. O tema também passou a atrair atenção de agências regulatórias, como a SEC (Securities and Exchange Commission), que pretende exigir maior transparência sobre o uso e os impactos da IA em decisões corporativas.
Especialistas apontam que esse movimento representa uma nova fase da governança digital: a IA não é apenas uma ferramenta de inovação, mas também um vetor de risco operacional e reputacional que precisa ser auditado e documentado.
Dica de prevenção:
Empresas devem implementar políticas de governança de IA, com definição de responsabilidades, auditoria de modelos e gestão de dados sensíveis. Além disso, é essencial mapear riscos éticos e técnicos antes da integração de qualquer tecnologia de IA em processos críticos.
Setores como finanças, saúde e tecnologia estão entre os mais impactados e sob pressão para detalhar suas estratégias de mitigação de riscos de IA.
Os acionistas estão exigindo maior transparência e detalhamento nos relatórios sobre como as empresas avaliam e mitigam os riscos relacionados à IA.
As empresas devem implementar políticas de governança de IA, definir responsabilidades e realizar auditorias regulares para garantir a segurança e a conformidade.
A adoção segura de IA começa com transparência e controle. Conheça as soluções da LC SEC para estruturar políticas e mitigar riscos tecnológicos.