
A Inteligência Artificial já não é apenas uma promessa de eficiência — é uma inevitabilidade estratégica. Mas, para quase metade dos líderes de TI ouvidos pela Salesforce, o caminho para a sua adoção ainda está longe de ser claro. Numa era em que os riscos reputacionais e legais são cada vez mais escrutinados, 48% dos responsáveis pelo IT nas empresas admitem que as suas infraestruturas de dados não estão preparadas para receber a IA. Mais de metade (55%) confessa não ter confiança na sua implementação com as devidas salvaguardas.
É neste contexto que a Salesforce, uma das gigantes globais do CRM e da IA corporativa, apresenta uma proposta que vai além do entusiasmo tecnológico: uma arquitetura de confiança, segurança e governação, concebida para tornar a IA empresarial não só eficaz, mas também fiável.
Uma gramática para os agentes de IA
Na visão da Salesforce, os agentes de IA — ferramentas autónomas que interagem com clientes e otimizam processos — devem assentar numa base segura e governada, onde os dados não sejam apenas acessíveis, mas também devidamente protegidos, auditáveis e respeitadores da legislação.
“Implementar IA de confiança exige mais do que modelos potentes”, refere a empresa em comunicado. “É necessário garantir que os dados estão protegidos, que os testes são feitos com rigor, e que a governação é contínua e transversal.”
É por isso que a empresa coloca a Data Cloud no centro da sua estratégia — uma camada de unificação que consolida dados de múltiplas fontes, estruturadas e não estruturadas, para fornecer uma visão de cliente holística. A isto soma-se uma estrutura de governação inteligente, com classificação automática de dados sensíveis (como dados protegidos pelo RGPD ou HIPAA) e políticas dinâmicas de mascaramento, consoante o perfil do utilizador.
A lógica de separação de dados por unidades de negócio, regiões ou marcas — através dos chamados Espaços de Dados — permite segmentar e proteger a informação sem comprometer a integração. Já as políticas de governação aplicam-se a nível granular, do campo ao objeto, garantindo que o acesso e utilização dos dados estão sempre sob controlo.
Em paralelo, a Salesforce está a reforçar o Agentforce, a sua plataforma de criação de agentes de IA. Com ambientes de desenvolvimento isolados, dados sintéticos e controlo comportamental dos agentes (os chamados Instruction Adherence Checks), a empresa pretende tornar o ciclo de vida destes agentes mais transparente e previsível.
À medida que os agentes de IA se integram com sistemas externos, as APIs tornam-se pontos críticos de vulnerabilidade. A Salesforce responde com o MuleSoft, que permite uma gestão centralizada das APIs, assegurando conformidade com protocolos emergentes como o Agent2Agent (A2A) ou o Model Context Protocol (MCP) — fundamentais para garantir interações seguras entre agentes.
Mas o ponto mais sensível continua a ser a proteção de dados nas interações com modelos generativos. É aqui que entra o Trust Layer — uma camada intermediária que atua entre o utilizador/agente e os LLMs (Modelos de Linguagem de Grande Escala), garantindo que dados sensíveis são mascarados ou excluídos antes do processamento, e que não há retenção de dados por parte dos fornecedores de IA. Este sistema inclui ainda deteção de toxicidade nas mensagens, um mecanismo fundamental num cenário empresarial cada vez mais atento à ética da IA.
“Estamos há mais de 25 anos a construir tecnologia segura e de confiança, e isso coloca-nos numa posição única para apoiar as empresas nesta nova fase”, afirma Rahul Auradkar, EVP e GM da Data Cloud na Salesforce. “Ao unificarmos os dados, fornecermos ferramentas low-code e integrarmos a segurança desde o início, estamos a ajudar os nossos clientes a construir IA empresarial que é ao mesmo tempo poderosa e responsável.”
Num contexto em que os projetos-piloto de IA se preparam para dar lugar a implementações em larga escala, o fator confiança deixou de ser acessório. Passou a ser condição essencial.
As empresas não vão querer arriscar reputações por promessas mal calibradas, não basta criar agentes inteligentes — é preciso garantir que eles operam com integridade, previsibilidade e sob um controlo absoluto dos dados.
Num mercado onde a inovação caminha de mãos dadas com a regulação, essa pode ser a diferença entre adotar a IA com confiança — ou hesitar indefinidamente.