O uso de inteligência artificial no ambiente corporativo está crescendo em ritmo acelerado. No entanto, enquanto a produtividade aumenta, os riscos também acompanham essa expansão.
Uma pesquisa recente da Cyberhaven revela um dado preocupante: quase 40% das interações de funcionários com ferramentas de IA envolvem informações sensíveis da empresa. Isso significa que dados estratégicos estão circulando por plataformas que, muitas vezes, não estão sob controle direto da organização.
Vamos entender o que está acontecendo — e por que isso merece atenção imediata.
A Expansão da IA nas Empresas: Crescimento Mais Rápido que a Segurança
A adoção de IA corporativa não acontece de forma uniforme. Segundo o estudo da Cyberhaven, existe hoje uma divisão clara entre dois grupos:
- Empresas “fronteira”, que adotam centenas de ferramentas de IA rapidamente.
- Empresas “retardatárias”, que mantêm bloqueios rígidos e baixa adoção.
O problema? Mesmo nas empresas mais conservadoras, os funcionários estão buscando soluções por conta própria.
Isso cria o chamado Shadow AI — o uso de ferramentas de IA fora dos canais oficiais da empresa.
O “Velho Oeste” da IA Corporativa
O relatório descreve o cenário atual como uma espécie de “Velho Oeste digital”:
- Ferramentas surgem mais rápido que políticas internas.
- Funcionários utilizam contas pessoais.
- Dados circulam entre aplicativos SaaS, endpoints e modelos de IA sem supervisão centralizada.
Hoje, organizações com alta adoção chegam a utilizar mais de 300 ferramentas de IA generativa diferentes dentro do mesmo ambiente corporativo.
Esse volume dificulta qualquer tentativa de monitoramento tradicional.
40% das Interações Envolvem Dados Sensíveis
O dado mais alarmante da pesquisa é este: 39,7% das interações com ferramentas de IA envolvem dados sensíveis.
Esses dados podem incluir:
- Código-fonte proprietário
- Informações financeiras
- Dados de clientes
- Documentos estratégicos
- Informações de pesquisa e desenvolvimento
Muitas vezes, os próprios funcionários não têm clareza sobre o que constitui dado sensível — ou sobre o que acontece com essas informações após serem enviadas a uma ferramenta de IA.
Contas Pessoais Aumentam o Risco
Outro ponto crítico: cerca de um terço dos funcionários acessa ferramentas de IA usando contas pessoais, não corporativas.
Ferramentas como Claude e Perplexity são frequentemente utilizadas fora dos sistemas oficiais.
Isso significa que:
- A empresa perde visibilidade.
- Não há controle sobre retenção de dados.
- A governança de informações fica comprometida.
Quando dados sensíveis passam por contas pessoais, a organização praticamente perde o controle sobre eles.
Modelos Chineses Ganham Espaço no Ambiente Corporativo
Um movimento inesperado identificado no relatório é o crescimento de modelos chineses de IA no ambiente empresarial.
Ferramentas como DeepSeek ganharam popularidade após demonstrarem desempenho competitivo em tarefas como programação.
Segundo a pesquisa, 50% do uso de IA em endpoints analisados envolve modelos open-weight chineses.
Esse fenômeno amplia a complexidade regulatória e de segurança, especialmente para empresas que atuam em mercados com exigências rigorosas de proteção de dados.
82% das Ferramentas de IA São Classificadas como Risco Médio ou Alto
Entre os 100 aplicativos GenAI mais utilizados, 82% foram classificados como risco médio, alto ou crítico.
Mas isso não significa necessariamente que essas ferramentas sejam maliciosas.
O risco elevado decorre principalmente de:
- Falta de controle centralizado
- Uso fora dos canais oficiais
- Ausência de políticas claras
- Permissões excessivas
Em muitos casos, funcionários escolhem ferramentas que oferecem melhor experiência de uso, mesmo que não sejam aprovadas pela empresa.
IA Embutida e Agentes Automatizados: O Próximo Passo
O relatório também aponta uma mudança interessante: o modelo clássico de chatbot pode estar dando lugar a agentes especializados e ferramentas embutidas.
Enquanto interfaces no estilo ChatGPT continuam populares, cresce o uso de:
- Agentes de codificação
- Ferramentas integradas ao fluxo de trabalho
- IA invisível operando em segundo plano
Isso significa que a IA está deixando de ser uma ferramenta isolada e passando a fazer parte da infraestrutura operacional das empresas.
Por Que Muitas Empresas Ainda Bloqueiam a IA?
Empresas com baixa adoção costumam adotar uma política de “bloqueio primeiro”. Os principais motivos são:
- Falta de confiança no uso seguro pelos funcionários
- Sistemas legados difíceis de integrar
- Receio de vazamento de dados
- Falta de visibilidade sobre riscos
Por outro lado, empresas mais avançadas enxergam a IA como motor de produtividade — mas precisam equilibrar inovação e governança.
Como Reduzir os Riscos do Uso de IA no Trabalho
Se o uso de IA vai continuar crescendo (e tudo indica que sim), o foco precisa ser governança inteligente.
Algumas práticas recomendadas incluem:
1. Monitorar o ciclo completo dos dados
Entender como as informações fluem entre sistemas, endpoints e ferramentas de IA.
2. Implementar políticas claras de uso
Definir quais dados podem ou não ser inseridos em ferramentas externas.
3. Oferecer ferramentas corporativas competitivas
Quando a experiência oficial é boa, o uso de Shadow AI diminui.
4. Investir em educação e conscientização
Funcionários precisam entender riscos e responsabilidades.
O Que Esperar do Futuro da IA Corporativa?
A tendência é clara: o uso de IA — oficial ou não — continuará aumentando.
Mais agentes automatizados, mais ferramentas especializadas e mais integração aos fluxos de trabalho do dia a dia.
Isso significa que a pergunta deixou de ser “Devemos usar IA?” e passou a ser:
“Como vamos governar e proteger o uso de IA?”
Empresas que encontrarem esse equilíbrio terão ganhos significativos de produtividade — sem comprometer seus ativos mais valiosos: seus dados.
E no cenário atual, proteger dados não é apenas uma questão técnica. É uma estratégia de sobrevivência digital.
