À adoção acelerada da Inteligência Artificial (IA) ​​juntam-se ameaças de cibersegurança mais sofisticadas, que fazem com que os líderes de segurança em TI reconheçam a necessidade de uma transformação fundamental nas suas práticas de segurança. A realidade, porém, é que a implementação da IA ​​em escala traz desafios significativos. 

Apesar de 66% das organizações esperarem que a IA tenha um impacto significativo na cibersegurança, apenas 37% têm processos para avaliar a segurança das ferramentas de IA antes da implementação, de acordo com o Global Cybersecurity Outlook do Fórum Económico Mundial. Estes dados realçam o paradoxo da implementação rápida da IA ​​sem salvaguardas adequadas.

O desafio é agravado por um cenário de segurança cada vez mais complexo, com realidades como o envenenamento de dados – onde agentes mal-intencionados corrompem intencionalmente os dados de treino – no que constitui uma preocupação significativa dos líderes de TI nos dias que correm.

Enquanto os agentes autónomos de IA são promissores para melhorar a deteção de ameaças, acelerar os tempos de resposta e permitir que as equipas de segurança tenham tempo para se concentrarem na resolução de problemas mais complexos, uma lacuna na infraestrutura de dados e na governança vai limitar a capacidade de proteger os dados e manter a necessária conformidade dos mesmos.

O caminho para uma IA confiável e impactante é suportado em dados. Para implementar agentes de IA confiáveis, as organizações precisam de uma abordagem holística que inclua a construção de uma base de dados bem governada, a implementação de proteções de segurança e a garantia de supervisão contínua durante todo o ciclo de vida da IA. E como fazê-lo?

Criar uma estrutura moderna de governança de dados

Em muitas grandes organizações, os dados estão espalhados por vários sistemas e silos, incluindo dados estruturados, como bases de dados, e conteúdo não estruturado, como vídeos, áudio e texto de diversas fontes.

As políticas de governança tradicionais, muitas vezes ligadas a plataformas específicas, são insuficientes para o acesso unificado e contínuo que os agentes autónomos de IA exigem. Esta fragmentação impede a escalabilidade, leva a inconsistências, dificulta a conformidade e aumenta os riscos de segurança. A Gartner sugere que 60% dos projetos de IA não terão sucesso sem uma base sólida de dados.

Para ultrapassar esta barreira, a era dos agentes exige uma reformulação fundamental da governança de dados. O objetivo não é consolidar todos os dados num único sítio, o que muitas vezes é impraticável. Porém, a era dos agentes precisa inequivocamente de uma estrutura baseada na fluidez dos dados, que permita uma visão consistente dos mesmos e do contexto associado, independentemente da sua localização física. Essa abordagem é essencial para estabelecer a confiança dos utilizadores na utilização em escala de IA..

Alcançar esta governança fluida envolve quatro passos fundamentais:

  • Implementar políticas consistentes: é fundamental estabelecer políticas consistentes através de classificações e taxonomias partilhadas em todo o cenário de dados variados.
  • Marcação automatizada: A marcação e classificação automatizadas de dados são essenciais para garantir que as políticas são aplicadas uniformemente em todas as fontes.
  • Proteção de pontos de acesso (APIs): Dado que os agentes de IA usam frequentemente APIs para interagir com sistemas e aceder a dados, compreender a governança e os controlos de segurança destas ligações é importante para reduzir os riscos de pontos de acesso não governados.
  • Conexões seguras e criptografia: conexões seguras para dados protegidos por firewalls e a implementação de opções flexíveis de criptografia também são salvaguardas valiosas.

Implementar mecanismos de segurança e proteção

Para além da estrutura de governança, é fundamental implementar barreiras de segurança e proteção robustas.

As empresas precisam criar ambientes seguros para desenvolverem e testarem minuciosamente os agentes de IA. O uso de sandboxes permite que as equipas desenvolvam e validem o comportamento do agente utilizando dados realistas de forma isolada. A especificação de instruções e restrições ajuda a controlar o processamento e a tomada de decisões durante os testes. As verificações de adesão às instruções durante esta fase ajudam a monitorizar o comportamento do agente e garantir as ações pretendidas.

Após os agentes serem implementados, as proteções integradas e a monitorização contínua são essenciais. Este controlo orienta os agentes a operarem dentro de limites definidos, prevenindo ações não intencionais e detectando comportamentos prejudiciais. A monitorização do comportamento do agente e os recursos de observabilidade na camada de governança facilitam a solução de problemas se políticas ou classificações resultarem em resultados inesperados.

A importância de manter o elemento humano

A forma mais eficaz de tirar partido do trabalho digital é estabelecê-lo como uma parceria entre humanos e agentes.

Garantir que os agentes possam transferir tarefas facilmente para contrapartes humanas quando surgirem cenários complexos também é importante. Esta abordagem híbrida é fundamental para a forma como as empresas podem implementar agentes de IA com confiança e espera-se que seja necessária para a maioria dos casos de utilização num futuro próximo.

Mas os agentes de IA são tão confiáveis ​​quanto os dados com os quais trabalham. Para construir essa confiança, as organizações precisam de garantir o acesso unificado aos dados em toda a empresa, além de ferramentas de desenvolvimento poderosas e segurança e governança integradas e robustas.

A capacidade de criar agentes de IA que sejam confiáveis ​​e responsáveis, e que possam gerar valor comercial real e melhorar as experiências do cliente, será a principal medida do sucesso nesta era dos agentes.

Tiago Esteves é Principal Solution Engineer da Salesforce