Voltar ao inĂ­cio do blog

Salesforce recua em LLMs por confiabilidade: entenda e se proteja

A Salesforce decidiu reduzir o uso de modelos de linguagem (LLMs) em algumas iniciativas de inteligencia artificial após apontar preocupacoes com confiabilidade, um movimento que chama a atencao de empresas que dependem de automacao para atender clientes, gerar conteudo ou apoiar equipes internas. Em termos simples, a discussao nao e sobre “IA ser boa ou ruim”, mas sobre o risco de respostas erradas, inconsistentes ou dificeis de explicar afetarem decisoes e processos do dia a dia. Quando uma ferramenta desse tipo falha, o impacto pode ir de informacoes imprecisas em um atendimento ate recomendacoes inadequadas em fluxos de trabalho, com reflexos em reputacao, produtividade e compliance. O recuo da Salesforce sinaliza que, antes de escalar IA para rotinas criticas, e essencial estabelecer controles: validar saidas, definir limites de uso, registrar evidencias e manter supervisao humana. Tambem vale separar tarefas de baixo risco (rascunhos, sumarizacoes) daquelas que exigem alta precisao (dados sensiveis, orientacoes operacionais, comunicacoes formais). Dica de prevencao: crie um checklist simples de revisao antes de publicar ou executar qualquer acao baseada em IA, e mantenha um canal claro para reportar erros. Teste a ferramenta com casos reais e documente o que ela pode ou nao fazer. No geral, a postura da Salesforce reforca que confianca em IA precisa ser construida com processo e governanca. Para reduzir riscos e acelerar a adocao com seguranca, conheca os servicos da LC SEC: Pentest, Threat Intelligence com IA, Auditoria Interna, Conscientizacao, Plano Diretor de Seguranca e SGSI (politicas/processos/procedimentos). lcsec.io

Fonte: CySecurity News - Latest Information Security and Hacking Incidents (https://www.cysecurity.news/2026/01/salesforce-pulls-back-from-ai-llms.html)

Compartilhe nas redes sociais:

ConteĂşdos relacionados