A Salesforce decidiu reduzir o uso de modelos de linguagem (LLMs) em suas operações devido a preocupações com a confiabilidade. O movimento destaca a necessidade de controle e supervisão ao adotar ...
A Salesforce decidiu reduzir o uso de modelos de linguagem (LLMs) em suas operações devido a preocupações com a confiabilidade. O movimento destaca a necessidade de controle e supervisão ao adotar IA em processos críticos, visando evitar erros que podem impactar a reputação e a produtividade das empresas.
A Salesforce decidiu reduzir o uso de modelos de linguagem (LLMs) em algumas iniciativas de inteligência artificial, levantando preocupações sobre a confiabilidade dessas ferramentas. Essa decisão impacta empresas que dependem da automação para atender clientes e gerar conteúdo.
A discussão em torno da inteligência artificial não se resume a ser "boa ou ruim", mas sim ao risco de respostas erradas, inconsistentes ou difíceis de explicar. Quando uma ferramenta de IA falha, o impacto pode resultar em informações imprecisas e recomendações inadequadas.
Os sinais de alerta incluem:
Antes de escalar IA para rotinas críticas, é essencial adotar algumas práticas:
Crie um checklist simples de revisão antes de publicar ou executar qualquer ação baseada em IA:
A Salesforce reduziu o uso de LLMs devido a preocupações com a confiabilidade e os riscos associados a respostas imprecisas que podem afetar processos críticos.
Os riscos incluem informações imprecisas, recomendações inadequadas e decisões que podem comprometer a reputação e a conformidade das empresas.
É importante validar saídas, ter supervisão humana e criar checklists para revisar ações baseadas em IA.
Conheça nossos serviços para reduzir riscos na adoção de IA, como Pentest, Threat Intelligence com IA, Auditoria Interna, e mais.