
À adoção acelerada da Inteligência Artificial (IA) juntam-se ameaças de cibersegurança mais sofisticadas, que fazem com que os líderes de segurança em TI reconheçam a necessidade de uma transformação fundamental nas suas práticas de segurança. A realidade, porém, é que a implementação da IA em escala traz desafios significativos.
Apesar de 66% das organizações esperarem que a IA tenha um impacto significativo na cibersegurança, apenas 37% têm processos para avaliar a segurança das ferramentas de IA antes da implementação, de acordo com o Global Cybersecurity Outlook do Fórum Económico Mundial. Estes dados realçam o paradoxo da implementação rápida da IA sem salvaguardas adequadas.
O desafio é agravado por um cenário de segurança cada vez mais complexo, com realidades como o envenenamento de dados – onde agentes mal-intencionados corrompem intencionalmente os dados de treino – no que constitui uma preocupação significativa dos líderes de TI nos dias que correm.
Enquanto os agentes autónomos de IA são promissores para melhorar a deteção de ameaças, acelerar os tempos de resposta e permitir que as equipas de segurança tenham tempo para se concentrarem na resolução de problemas mais complexos, uma lacuna na infraestrutura de dados e na governança vai limitar a capacidade de proteger os dados e manter a necessária conformidade dos mesmos.
O caminho para uma IA confiável e impactante é suportado em dados. Para implementar agentes de IA confiáveis, as organizações precisam de uma abordagem holística que inclua a construção de uma base de dados bem governada, a implementação de proteções de segurança e a garantia de supervisão contínua durante todo o ciclo de vida da IA. E como fazê-lo?
Criar uma estrutura moderna de governança de dados
Em muitas grandes organizações, os dados estão espalhados por vários sistemas e silos, incluindo dados estruturados, como bases de dados, e conteúdo não estruturado, como vídeos, áudio e texto de diversas fontes.
As políticas de governança tradicionais, muitas vezes ligadas a plataformas específicas, são insuficientes para o acesso unificado e contínuo que os agentes autónomos de IA exigem. Esta fragmentação impede a escalabilidade, leva a inconsistências, dificulta a conformidade e aumenta os riscos de segurança. A Gartner sugere que 60% dos projetos de IA não terão sucesso sem uma base sólida de dados.
Para ultrapassar esta barreira, a era dos agentes exige uma reformulação fundamental da governança de dados. O objetivo não é consolidar todos os dados num único sítio, o que muitas vezes é impraticável. Porém, a era dos agentes precisa inequivocamente de uma estrutura baseada na fluidez dos dados, que permita uma visão consistente dos mesmos e do contexto associado, independentemente da sua localização física. Essa abordagem é essencial para estabelecer a confiança dos utilizadores na utilização em escala de IA..
Alcançar esta governança fluida envolve quatro passos fundamentais:
- Implementar políticas consistentes: é fundamental estabelecer políticas consistentes através de classificações e taxonomias partilhadas em todo o cenário de dados variados.
- Marcação automatizada: A marcação e classificação automatizadas de dados são essenciais para garantir que as políticas são aplicadas uniformemente em todas as fontes.
- Proteção de pontos de acesso (APIs): Dado que os agentes de IA usam frequentemente APIs para interagir com sistemas e aceder a dados, compreender a governança e os controlos de segurança destas ligações é importante para reduzir os riscos de pontos de acesso não governados.
- Conexões seguras e criptografia: conexões seguras para dados protegidos por firewalls e a implementação de opções flexíveis de criptografia também são salvaguardas valiosas.
Implementar mecanismos de segurança e proteção
Para além da estrutura de governança, é fundamental implementar barreiras de segurança e proteção robustas.
As empresas precisam criar ambientes seguros para desenvolverem e testarem minuciosamente os agentes de IA. O uso de sandboxes permite que as equipas desenvolvam e validem o comportamento do agente utilizando dados realistas de forma isolada. A especificação de instruções e restrições ajuda a controlar o processamento e a tomada de decisões durante os testes. As verificações de adesão às instruções durante esta fase ajudam a monitorizar o comportamento do agente e garantir as ações pretendidas.
Após os agentes serem implementados, as proteções integradas e a monitorização contínua são essenciais. Este controlo orienta os agentes a operarem dentro de limites definidos, prevenindo ações não intencionais e detectando comportamentos prejudiciais. A monitorização do comportamento do agente e os recursos de observabilidade na camada de governança facilitam a solução de problemas se políticas ou classificações resultarem em resultados inesperados.
A importância de manter o elemento humano
A forma mais eficaz de tirar partido do trabalho digital é estabelecê-lo como uma parceria entre humanos e agentes.
Garantir que os agentes possam transferir tarefas facilmente para contrapartes humanas quando surgirem cenários complexos também é importante. Esta abordagem híbrida é fundamental para a forma como as empresas podem implementar agentes de IA com confiança e espera-se que seja necessária para a maioria dos casos de utilização num futuro próximo.
Mas os agentes de IA são tão confiáveis quanto os dados com os quais trabalham. Para construir essa confiança, as organizações precisam de garantir o acesso unificado aos dados em toda a empresa, além de ferramentas de desenvolvimento poderosas e segurança e governança integradas e robustas.
A capacidade de criar agentes de IA que sejam confiáveis e responsáveis, e que possam gerar valor comercial real e melhorar as experiências do cliente, será a principal medida do sucesso nesta era dos agentes.
Tiago Esteves é Principal Solution Engineer da Salesforce