
O ritmo de adoção de ferramentas de inteligência artificial nas empresas não para de acelerar, mas essa expansão vem acompanhada de uma ameaça emergente: o uso não autorizado dessas tecnologias pelos próprios funcionários. De acordo com dados recolhidos pela Stocklytics.com a partir do Technology Perceptions Survey Report 2025 da INTAPP, metade dos profissionais já utilizou ferramentas de IA não autorizadas no seu local de trabalho, expondo informações corporativas sensíveis a possíveis fugas ou utilizações indevidas.
Em 2025, 56% das empresas já terão integrado a IA nas suas operações, enquanto outras 32% estarão a dar os primeiros passos. As principais aplicações empresariais destas ferramentas incluem a geração de documentos e a síntese de informações, com uma adoção superior a 40% entre os inquiridos. Outras áreas com uso significativo são a investigação (36%), o controlo de qualidade (33%) e as consultas por voz (31%).
Apesar dos benefícios em termos de eficiência e redução de custos, as empresas enfrentam um risco crescente dentro das suas próprias equipas. O estudo mostra que 24% dos funcionários utilizaram repetidamente ferramentas de IA não autorizadas e outros 26% fizeram-no ocasionalmente. Além disso, 23% dos inquiridos admitem que as utilizariam se tivessem oportunidade, o que deixa apenas 25% dos profissionais que recusariam a sua utilização em qualquer circunstância.
Este comportamento põe em causa a proteção dos dados corporativos, uma vez que muitas destas ferramentas não foram avaliadas pelos departamentos de segurança nem cumprem as normas de privacidade e proteção de dados exigidas pelas regulamentações internacionais.
Entre os principais riscos associados ao uso não autorizado estão o vazamento de informações confidenciais, infecções por malware e o compartilhamento involuntário de dados com terceiros. Tudo isso pode comprometer tanto os ativos digitais da empresa quanto o relacionamento com os seus clientes ou parceiros.
O número de utilizadores de ferramentas de inteligência artificial está a crescer exponencialmente. De acordo com estimativas da Statista, em 2025 haverá cerca de 350 milhões de utilizadores de IA em todo o mundo, um número que triplica o registado cinco anos antes. Espera-se que este número ultrapasse os 500 milhões em 2027 e atinja os 1,1 mil milhões em 2031.
Este crescimento não implica apenas uma maior adoção por parte das empresas, mas também uma maior disponibilidade de ferramentas acessíveis a qualquer utilizador. Neste contexto, os responsáveis de TI devem antecipar os riscos decorrentes do uso autónomo e não autorizado, reforçando tanto as políticas de controlo de acesso como a formação do pessoal em boas práticas digitais.
A popularização da IA exige uma reformulação da gestão do risco interno nas organizações, onde a confiança e a supervisão devem ser equilibradas para proteger os dados sem frear a inovação.