O NIST propôs novas diretrizes em agosto de 2025 para fortalecer a segurança em sistemas de inteligência artificial, focando em práticas de gestão de riscos, validação contínua e transparência nos ...
O NIST propôs novas diretrizes em agosto de 2025 para fortalecer a segurança em sistemas de inteligência artificial, focando em práticas de gestão de riscos, validação contínua e transparência nos dados utilizados. Essas recomendações visam proteger modelos de IA contra ataques maliciosos e podem influenciar regulamentações internacionais.
O Instituto Nacional de Padrões e Tecnologia (NIST) dos Estados Unidos publicou, em agosto de 2025, uma proposta de diretrizes voltadas para o fortalecimento da segurança em sistemas de inteligência artificial (IA). O objetivo é criar parâmetros que ajudem empresas e desenvolvedores a protegerem modelos de IA contra ataques e manipulações maliciosas.
As recomendações incluem práticas de gestão de riscos, validação contínua dos modelos e monitoramento de possíveis tentativas de exploração, como envenenamento de dados de treinamento (data poisoning), manipulação de saídas (model evasion) e uso indevido de aplicações baseadas em IA. Além disso, o NIST propõe que as organizações documentem de forma transparente como seus sistemas foram treinados, quais dados foram utilizados e quais limitações precisam ser consideradas.
Esse movimento acontece em um cenário de crescente adoção da IA em setores críticos como saúde, finanças e segurança pública. Ao mesmo tempo, cresce também o interesse de cibercriminosos em explorar vulnerabilidades nesses sistemas, seja para fraudar resultados, roubar informações confidenciais ou comprometer operações.
Organizações que utilizam IA devem implementar camadas adicionais de segurança em seus modelos, incluindo testes adversariais, monitoramento em tempo real e auditorias independentes. Além disso, é essencial adotar frameworks de boas práticas, como os propostos pelo NIST, para reduzir riscos e aumentar a resiliência.
As diretrizes propostas pelo NIST representam um passo importante para garantir que a inteligência artificial seja utilizada de forma segura e responsável. Empresas que se anteciparem a essas práticas estarão mais preparadas para enfrentar ameaças emergentes.
As diretrizes ajudam a estabelecer padrões de segurança e confiança em sistemas de IA, protegendo contra ataques e vulnerabilidades.
Empresas e desenvolvedores que utilizam sistemas de inteligência artificial em suas operações.
Os riscos incluem fraudes, roubo de informações confidenciais e manipulação de resultados.
Elas devem implementar práticas de segurança adicionais, como testes adversariais e auditorias independentes, além de garantir a conformidade com as diretrizes propostas.
Se a sua organização busca reforçar sua postura de segurança digital e conformidade, conheça os serviços especializados da LC SEC em lcsec.io.