Funcionários estão confusos se podem ou não usar IA


Empresas são instruídas a definir políticas claras, detalhando quais ferramentas podem ser usadas e como

Por Emma Jacobs – Valor/Financial Times – 24/11/2025

Alguns empregadores são claros sobre a inteligência artificial (IA). Oferecem bonificações aos funcionários que a usam com regularidade e alertam sobre possíveis medidas se a usam de forma indevida. Outros não definem nem as diretrizes mínimas, deixando muitos funcionários confusos sobre como usar a tecnologia.

A opacidade em torno das políticas vem fazendo com que funcionários usem contas pessoais de IA generativa em segredo ou descubram que, inadvertidamente, infringiram as regras. O problema se origina nos primórdios da tecnologia, quando as empresas “diziam enfaticamente às pessoas para não usar IA, por medo de vazamento de dados privados”, diz Joshua Wöhle, CEO da Mindstone, uma plataforma on-line que oferece treinamento de IA. “Isso teve um grande impacto nas pessoas, que ficaram com medo de usá-la.”

Mesmo agora que os empregadores vêm avalizando o uso da IA no local de trabalho, “a ressaca [ainda] dura”, acrescenta. O resultado é que há “pessoas que não a usam de forma alguma”. “Ou aquelas que o fazem, usam uma conta privada”. O problema, alerta Wöhle, é “dramaticamente maior” do que muitos executivos pensam.

Jason Ross, sócio da área trabalhista na banca de advocacia americana Wood Smith Henning & Berman, diz ter sido contatado por gerentes “profundamente preocupados” com a “negligência proposital ou meramente não intencional” de funcionários que desconhecem os riscos e as diretrizes da empresa. A queixa mais comum dos empregadores é quanto a funcionários que usam ferramentas de IA sem “revisão apropriada”.

No setor jurídico, têm surgido casos que violam decisões de tribunais sobre a necessidade de revelar o uso da IA, o que resulta em “embaraços para o escritório e advogados, sanções e danos à reputação”, diz Ross. “Também pode haver graves consequências disciplinares para o advogado implicado, incluindo a perda de emprego”.

Líderes empresariais vêm sendo instruídos a definir políticas claras. Em geral, essas políticas abordam questões como a “confidencialidade, riscos de parcialismo e discriminação, necessidade de envolvimento e revisão humanos e questões de privacidade e segurança de dados”, diz a chefe da área trabalhista no Reino Unido do escritório de advocacia Linklaters, Sinead Casey. Elas também devem deixar claro quais ferramentas de IA são permitidas, se o funcionário deve informar aos gestores quando usa ferramentas para realizar tarefas e deixar explícito que uma violação pode levar a medidas disciplinares, incluindo a demissão.

As empresas também deveriam ter funcionários treinados que deem exemplos de casos de uso e respondam a perguntas sobre as políticas, à medida que a tecnologia e as aplicações vão evoluindo.

A cultura é crucial para incentivar a divulgação do uso de IA generativa, diz Wöhle. “A IA é algo a celebrar ou a esconder? As pessoas se sentem orgulhosas de usá-la para obter um resultado? Ou as pessoas a escondem porque temem parecer que estão trapaceando? Se não estiver claro para as pessoas se elas vão ser celebradas ou censuradas por isso, então um cenário levará a uma melhor adoção e [divulgação], o outro não.”

Este ano, pesquisa global da KPMG e Universidade de Melbourne com 48.340 profissionais revelou que 44% infringem políticas e diretrizes das organizações sobre IA e 61% escondem o uso de ferramentas de IA no trabalho, com mais da metade apresentando conteúdo gerado por IA como se fosse próprio. “Precisamos ser positivos e fazer com que as pessoas sintam que podem experimentar”, diz o chefe da área de trabalho e IA da KPMG, Niale Cleobury.”

Na pesquisa Digital Consumer Trends, da Deloitte, 19% disseram que suas empresas não tinham política ou orientação sobre IA generativa e 14% não sabiam se suas empresas tinham uma política.

Algumas empresas criaram bonificações para incentivar o uso aberto e apropriado da IA. Uma delas passou a oferecer bônus de US$ 10 mil ao funcionário que criasse mais “prompts” de qualidade ou para quem usasse a IA de forma mais inovadora, escolhido por votação dos colegas. “O envolvimento está nas alturas”, diz Wöhle.

Em abril, a banca de advocacia Shoosmiths criou uma bonificação de 1 milhão de libras esterlinas para distribuir entre os funcionários se eles atingissem a meta de 1 milhão de prompts ao longo do ano. Os funcionários podem usar o Copilot da Microsoft para resumir e revisar documentos, assim como para fazer avaliações de desempenho, mas estão proibidos de recorrer à IA para quaisquer pesquisas jurídicas específicas. “Ele não foi treinado para ser advogado”, diz Tony Randle, sócio do escritório.

Consciente de que o uso responsável de IA se estende à preocupação ambiental, a Shoosmiths proíbe os funcionários de usar a tecnologia para produzir imagens. “A geração de imagens por IA consome dez vezes mais energia do que uma produção de palavras. Não queremos que as pessoas queimem energia dessa forma.” (Tradução de Sabino Ahumada)

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Deixe um comentário