Por que funcionários estão ‘contrabandeando’ apps de IA para o trabalho

Muitos funcionários estão usando ferramentas de inteligência artificial no trabalho sem a permissão de seus empregadores. Quais são os riscos? “É mais fácil ser perdoado do que obter permissão”, diz John, um engenheiro de software em uma empresa de tecnologia de serviços financeiros. “Simplesmente siga em frente. E se você tiver problemas depois, resolva.”
Ele é uma das muitas pessoas que estão usando suas próprias ferramentas de inteligência artificial (IA) no trabalho, sem a permissão de sua divisão de Tecnologia da Informação (TI) (é por isso que não estamos usando o nome completo de John).
De acordo com uma pesquisa da Software AG, metade dos trabalhadores da área de conhecimentos usam ferramentas pessoais de IA.
A pesquisa define trabalhadores do conhecimento como “aqueles que trabalham principalmente em uma mesa ou computador”.
O cérebro por trás do DeepSeek: quem é Liang Wenfeng?
O que esperar da inteligência artificial em 2025
DeepSeek, o app chinês de IA, é mesmo tão bom?
Para alguns, é porque sua equipe de TI não oferece ferramentas de IA, enquanto outros disseram que queriam sua própria escolha de ferramentas.
A empresa de John fornece o GitHub Copilot para desenvolvimento de software com suporte de IA, mas ele prefere o Cursor.
“É, em grande parte, uma ferramenta superestimada para autocompletar, mas é muito boa”, diz ele. “Ele completa 15 linhas por vez, e então você olha e diz, ‘sim, é isso que eu teria digitado’. Isso te liberta. Você se sente mais fluente.”
Seu uso não autorizado não está violando uma política, é apenas mais fácil do que arriscar um longo processo de aprovação, ele diz. “Sou preguiçoso e bem pago demais para cobrir as despesas”, ele acrescenta.
John recomenda que as empresas permaneçam flexíveis em suas escolhas de ferramentas de IA. “Tenho dito às pessoas no trabalho para não renovarem as licenças de equipe por um ano de cada vez porque em três meses todo o cenário muda”, ele diz. “Todo mundo vai querer fazer algo diferente e se sentirá preso pelo custo irrecuperável.”
O lançamento recente do DeepSeek, um modelo de IA disponível gratuitamente na China, provavelmente só expandirá as opções de IA.
Peter (que também teve a identidade trocada) é gerente de produto em uma empresa de armazenamento de dados, que oferece aos seus colaboradores o chatbot Google Gemini AI. Ferramentas externas de IA são proibidas, mas Peter usa o ChatGPT através da ferramenta de busca Kagi.
Ele acha que o maior benefício da IA vem de desafiar seu pensamento quando pede para o chatbot responder aos seus planos sob diferentes perspectivas de clientes.
“A IA não está tanto te dando respostas, mas te oferecendo um parceiro para debater ideias”, ele diz. “Como gerente de produto, você tem muita responsabilidade e não tem muitos bons canais para discutir a estratégia de forma aberta. Essas ferramentas permitem isso de uma forma sem restrições e ilimitada.”
A versão do ChatGPT que ele usa (4.0) pode analisar vídeos. “Você pode obter resumos dos vídeos dos concorrentes e ter uma conversa inteira [com a ferramenta de IA] sobre os pontos dos vídeos e como eles se sobrepõem aos seus próprios produtos.”
Em uma conversa de 10 minutos com o ChatGPT, ele consegue revisar material que levaria duas ou três horas assistindo aos vídeos.
Ele estima que sua produtividade aumentada seja equivalente à empresa ter um terço de uma pessoa adicional trabalhando de graça.
Ele não sabe por que a empresa proibiu o uso de IA externa. “Acho que é uma questão de controle”, ele diz. “As empresas querem ter uma palavra sobre as ferramentas que seus funcionários usam. É uma nova fronteira da TI e eles simplesmente querem ser conservadores.”
Versões personalizadas de IA
O uso de aplicativos de IA não autorizados é às vezes chamado de “shadow AI”. É uma versão mais específica do “shadow IT”, que ocorre quando alguém usa software ou serviços que o departamento de TI não aprovou.
A Harmonic Security ajuda a identificar o “shadow AI” e a evitar que dados corporativos sejam inseridos inadequadamente em ferramentas de IA.
Ela está monitorando mais de dez mil aplicativos de IA e já viu mais de cinco mil deles em uso.
Esses incluem versões personalizadas do ChatGPT e softwares de negócios que adicionaram funcionalidades de IA, como a ferramenta de comunicação Slack.
Por mais popular que seja, o “shadow AI” traz riscos.
Ferramentas modernas de IA são construídas ao digerir grandes quantidades de informações, em um processo chamado de treinamento.
Cerca de 30% dos aplicativos que a Harmonic Security viu em uso treinam utilizando informações inseridas pelo usuário.
Isso significa que as informações do usuário se tornam parte da ferramenta de IA e podem ser reutilizadas em respostas a outros usuários no futuro.
As empresas podem estar preocupadas com seus segredos comerciais sendo expostos pelas respostas da ferramenta de IA, mas Alastair Paterson, CEO e cofundador da Harmonic Security, acha que isso é improvável. “É bem difícil pegar os dados diretamente dessas [ferramentas de IA]”, ele diz.
No entanto, as empresas estarão preocupadas com o armazenamento de seus dados em serviços de IA sobre os quais não têm controle, não têm conhecimento e que podem ser vulneráveis a vazamentos de dados.
Será difícil para as empresas combaterem o uso de ferramentas de IA, pois elas podem ser extremamente úteis, especialmente para os trabalhadores mais jovens.
“[A IA] permite que você comprima cinco anos de experiência em 30 segundos de engenharia de prompts”, diz Simon Haighton-Williams, CEO do The Adaptavist Group, um grupo de serviços de software com sede no Reino Unido.
“Ela não substitui totalmente [a experiência], mas é um grande impulso, da mesma forma que ter uma boa enciclopédia ou uma calculadora permite que você faça coisas que não conseguiria sem essas ferramentas.”
O que ele diria para as empresas que descobrem que há uso de shadow AI?
“Bem-vindos ao clube. Acho que provavelmente todo mundo faz isso. Sejam pacientes, entendam o que as pessoas estão usando e por quê, e descubram como vocês podem abraçar e gerenciar isso, ao invés de exigir que seja desligado. Você não quer ser deixado para trás como a organização que não [adotou a IA].”
A Trimble fornece software e hardware para gerenciar dados sobre o ambiente construído. Para ajudar seus funcionários a usarem a IA de forma segura, a empresa criou o Trimble Assistant. É uma ferramenta interna de IA baseada nos mesmos modelos de IA usados no ChatGPT.
Os funcionários podem consultar o Trimble Assistant para uma ampla gama de aplicações, incluindo desenvolvimento de produtos, suporte ao cliente e pesquisa de mercado. Para desenvolvedores de software, a empresa oferece o GitHub Copilot.
Karoliina Torttila é diretora de IA na Trimble. “Eu incentivo todos a explorarem todos os tipos de ferramentas em sua vida pessoal, mas reconheçam que a vida profissional é um espaço diferente e existem algumas salvaguardas e considerações a serem feitas lá”, ela diz.
A empresa incentiva os funcionários a explorarem novos modelos e aplicações de IA online.
“Isso nos leva a uma habilidade que todos somos forçados a desenvolver: temos que conseguir entender o que é dado sensível”, ela afirma.
“Há lugares onde você não colocaria suas informações médicas, e você tem que ser capaz de fazer esse tipo de julgamento [também para os dados de trabalho].”
A experiência dos funcionários usando IA em casa e para projetos pessoais pode moldar a política da empresa conforme as ferramentas de IA evoluem, ela acredita.
É necessário haver um “diálogo constante sobre quais ferramentas nos servem melhor”, ela diz.
Bookmark the permalink.