Modelos de IA escrevem com segurança — mas isso não garante que estejam certos; entenda quais são os cuidados e o papel da validação humana
RENATO BONICIO – Fast Company Brasil – 12-02-2026
Modelos de IA escrevem muito bem, e isso é uma ótima notícia – até o momento em que uma resposta bonita, confiante e “com cara de especialista” está errada. Em produtos conversacionais com IA, a ferramenta não soa como um experimento: ela é a voz oficial da marca. Para o usuário, não parece um teste. É orientação.
Em temas sensíveis, como saúde, esse detalhe pesa ainda mais. Uma recomendação incorreta (mesmo que bem escrita) pode influenciar decisões reais. E o problema é sutil: respostas ruins nem sempre parecem ruins. Elas podem vir bem estruturadas, cheias de termos técnicos e tom seguro, só que sem base, sem contexto clínico ou extrapolando o que os documentos realmente dizem. E tem um detalhe: às vezes, a resposta ainda vem com “fontes” que parecem super críveis à primeira vista, mas que não sustentam a conclusão, estão fora de contexto, ou nem dizem exatamente o que a resposta apresenta.
IA NÃO PRECISA SER “DOMADA”, MAS SIM GOVERNADA. VALIDAÇÃO NÃO É “CHECAR PORTUGUÊS”: É CHECAR QUALIDADE, SEGURANÇA E TRANSPARÊNCIA.
A boa notícia é que IA não precisa ser “domada”, mas sim governada. Validação não é “checar português”: é checar qualidade, segurança e transparência. A resposta traz evidências? Faz afirmações verificáveis? Assume limites quando não há suporte? Evita instruções de risco?
É aqui que times de excelência se diferenciam: eles tratam confiabilidade como funcionalidade e avaliação como parte do ciclo de entrega. Na prática, isso costuma funcionar em três camadas:
1) Avaliação automatizada e contínua.
Um conjunto curado de perguntas de teste roda a cada mudança de prompt, modelo ou base de conteúdo, como testes de regressão. Você mede coisas como: presença de fontes confiáveis, cobertura dos pontos essenciais, consistência entre versões e sinais de “afirmações sem suporte”. E usa rubricas (checklists com nota), do tipo: “citou fontes relevantes?”, “não sugeriu ajuste de dose”, “explicou riscos” e “não foi além do documento”.
2) LLM-as-judge para triagem em escala.
Com a rubrica em mãos, um ou alguns modelos de IA comparam a resposta com os trechos recuperados e sinalizam problemas como contradições, absolutos (“sempre”, “nunca”), lacunas críticas e conclusões sem evidência. Isso não substitui revisão humana, mas ajuda a detectar regressões cedo, priorizar o que importa e categorizar erros por severidade.
3) Revisão humana, onde realmente importa.
Amostras aleatórias e direcionadas (temas de alto risco, perguntas populares, respostas de baixa confiança) vão para especialistas. E o valor não é só o “passou/falhou”: é o diagnóstico que volta para o sistema, ajustes na recuperação de fontes, melhoria de curadoria, refinamento de prompt e guardrails (quando recusar, quando pedir mais contexto e quando orientar procurar um médico).
Em muitos cenários, esse padrão aparece em várias frentes: suporte ao usuário, educação, jurídico, produtos financeiros, qualquer contexto em que a resposta do sistema vira referência. E é justamente por isso que times de excelência tratam validação como requisito de escala. Em saúde, a necessidade fica ainda mais evidente: o custo do erro é maior. Veja um exemplo:
Numa pergunta sobre hipertensão, o sistema recupera material incompleto e gera uma resposta sem exigir citação. O modelo responde: “Aumente a dose do seu remédio em 50% por uma semana.” Isso soa profissional, mas é perigoso. O ajuste de dose depende do medicamento, do paciente e do histórico clínico e, nesse caso, nenhuma evidência foi apresentada.
Uma boa avaliação pega isso de três formas: a rubrica reprova “ajuste de dose”; o judge aponta falta de suporte nos trechos recuperados; e o revisor humano classifica como risco alto, exigindo bloqueio e uma orientação segura.
SEM VALIDAÇÃO, VOCÊ NÃO ESCALA IA, VOCÊ ESCALA INCERTEZA.
No fim, validar IA deixou de ser opcional. Se você quer escalar um produto com IA, a validação é obrigatória. Porque sem validação, você não escala IA, você escala incerteza. E, no longo prazo, isso diminui a credibilidade da marca: uma ou duas respostas erradas bastam para o usuário parar de confiar no produto inteiro.
Boa escrita é só o começo. Confiabilidade é o que sustenta o produto.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Existe um website de recrutamento que é bastante animado e repleto de fotografias de jovens profissionais felizes. Pequenos slogans de incentivo ornamentam suas páginas, como “velocidade insana”, “curiosidade infinita” e “obsessão pelo cliente”.
Lendo com um pouco mais de cuidado, encontramos promessas de inúmeros benefícios: salário competitivo, refeições grátis, academia de ginástica sem custo, assistência médica e dentária gratuita e assim por diante.
Mas, em seguida, vem o preço.
Cada anúncio de emprego tem um alerta: “Por favor, não se candidate se você não estiver disposto a… trabalhar cerca de 70 horas por semana, presencialmente, com algumas das pessoas mais ambiciosas de Nova York”.
O website pertence à Rilla, uma empresa de tecnologia sediada em Nova York, nos Estados Unidos. Ela vende sistemas baseados em inteligência artificial (IA), que permitem aos empregadores monitorar vendedores quando estão fora do escritório, interagindo com clientes.
A empresa se tornou um exemplo típico da cultura profissional acelerada conhecida como 996, também chamada de “cultura da agitação”.
Resumidamente, ela premia longas jornadas de trabalho, tipicamente das 9 da manhã às 9 horas da noite, seis dias por semana. Daí a denominação 996.
Para a maioria de nós, seria extenuante. Mas segundo o chefe de crescimento da Rilla, Will Gao, seus 120 funcionários simplesmente não pensam desta forma.
“Procuramos pessoas que sejam como os atletas olímpicos, com características, sabe, de obsessão, ambição infinita”, explica ele. “São pessoas que querem fazer coisas incríveis e se divertem muito fazendo isso.”
“Se eu, por exemplo, estiver trabalhando em uma superideia, ficarei trabalhando até 2 ou 3 da manhã e depois irei aparecer no dia seguinte ao meio-dia ou perto disso”, explica ele.
Este tipo de horário se tornou extremamente popular no setor de tecnologia nos últimos anos, por uma boa razão.
O desenvolvimento da IA vem ocorrendo em velocidade alucinante. Companhias de todo o mundo procuram desenvolver a todo vapor formas de poder explorá-la e monetizá-la.
Imensos valores estão sendo despejados em empresas relacionadas à IA. Muitas delas são start-ups.
Mas, entre todos esses ambiciosos empreendedores, existe sempre o temor de que alguém chegue lá primeiro. Por isso, a velocidade é a essência do negócio.
E os profissionais do setor de tecnologia estão sob pressão de trabalhar mais, por mais tempo, para atingir resultados com maior rapidez.
‘Preguiçosos não são meus amigos!’
A cultura 996 ganhou destaque pela primeira vez na China, uma década atrás.
Ela foi adotada por companhias e start-ups de tecnologia em uma época em que o país se concentrava cada vez mais em deixar de ser o fornecedor mundial de produtos baratos para se tornar líder em tecnologias avançadas.
A cultura teve defensores poderosos, como Jack Ma, o bilionário fundador da gigante do varejo Alibaba.com.
“Pessoalmente, acho que poder trabalhar 996 é uma enorme bênção”, escreveu ele em uma postagem no seu blog para os funcionários.
“Não são apenas os empresários, artistas, cientistas, atletas, autoridades e políticos mais ambiciosos ou bem sucedidos que trabalham 996 ou mais”, disse ele, em outra postagem.
“Não é porque eles tenham uma perseverança extraordinária, mas porque são profundamente apaixonados pelas carreiras que escolheram.”
Outro entusiasta foi Richard Liu, fundador do colosso do varejo JD.com. Ele chegou a combater o que considerava o declínio da ética profissional no país.
“Os preguiçosos não são meus amigos!”, escreveu ele em 2019, em um controverso e-mail para seus funcionários.
Mas esta postura gerou reação contrária, incluindo uma onda de queixas online de que as companhias estão ignorando as leis trabalhistas e deixando de pagar horas extras, ao mesmo tempo em que forçam os funcionários a trabalhar em excesso.
Em 2021, este coro de desaprovação não pôde mais ser ignorado e gerou a repressão legal por parte das autoridades.
Na China, a escala 996 não desapareceu, mas seus defensores, de forma geral, passaram a ser muito mais discretos.
Uma exceção marcante foi a ex-chefe de relações públicas do Baidu, Qu Jing. Ela postou uma série de vídeos nas redes sociais em 2024, defendendo agressivamente a cultura do trabalho excessivo.
“Não sou sua mãe, só me preocupo com os resultados”, comentou ela.
Este ríspido desprezo pelo bem-estar dos funcionários despertou forte indignação. Ela se desculpou posteriormente, mas o comentário acabou custando seu emprego.
Ainda assim, esta cultura ainda tem defensores em outras partes do mundo. No ano passado, o fundador da gigante indiana do software Infosys, Narayana Murthy, comentou com admiração a adoção da escala 996 pela China.
Em entrevista na TV, ele destacou que “nenhum indivíduo, nenhuma comunidade, nenhum país se desenvolveu sem trabalhar arduamente”.
A corrida do ouro da IA
Mas por que a indústria da tecnologia americana decidiu adotar esta tendência?
A precipitada corrida para desenvolver formas de uso da IA, aparentemente, é um fator importante.
“São principalmente companhias de IA”, explica Adrian Kinnersley, responsável por empresas de recrutamento na Europa e na América do Norte.
“São aquelas empresas que têm algum financiamento de risco de capitalistas, que estão em uma corrida para desenvolver seus produtos e levá-los ao mercado antes que alguém o faça. Isso as levou à ideia de que, se você trabalhar por mais horas, irá vencer a corrida.”
Uma dessas start-ups de IA é administrada pelo jovem empreendedor alemão Magnus Müller. Ele é um dos fundadores da empresa Browser-Use, que desenvolve ferramentas para ajudar as aplicações de IA a interagir com navegadores da web.
Ele mora em uma “casa de hacker”, um espaço de trabalho e moradia compartilhado. Ali, ele e seus colegas trocam ideias constantemente.
Müller acredita que trabalhar por longas jornadas simplesmente faz parte da vida.
“Acho que estamos tentando construir algo difícil”, afirma ele. “Acho que são os problemas que você está tentando resolver, dar à IA essas capacidades adicionais.”
“É superdifícil e muito competitivo. Muitas vezes, o retorno vem quando você simplesmente mergulha muito fundo em um problema… é quando, de repente, acontecem coisas fascinantes.”
Atualmente, a Browser-Use tem apenas sete funcionários, mas está contratando mais.
Müller conta que está procurando pessoas com mentalidade igual à sua. Alguém que queira trabalhar 40 horas por semana, por exemplo, dificilmente irá se encaixar.
“Realmente, procuramos pessoas que sejam simplesmente viciadas, que adorem o que estão fazendo”, destaca ele.
“É como jogar, sabe? É como se você fosse viciado em jogos… para nós, na verdade, não parece trabalho. Nós simplesmente fazemos o que amamos.”
Mas outros discordam deste posicionamento. Deedy Das é sócio da Menlo Ventures, uma empresa de capital de risco que investe há cerca de 50 anos em empresas de tecnologia.
Ele acha que o erro mais comum dos jovens empreendedores é insistir que seus funcionários trabalhem em horários similares à escala 996.
“Acho que o erro dos jovens empreendedores é que eles observam as horas trabalhadas, por si só, como necessárias e suficientes para se acharem produtivos”, afirma ele. “É aqui que mora a falácia.”
“Forçar seus funcionários a vir e se afobar no trabalho é uma consequência dessa mentalidade.”
Ele acha que esta postura pode alienar os funcionários que têm famílias e os mais velhos e experientes, que “realmente podem trabalhar muito menos e atingir muito mais porque sabem o que estão fazendo”.
Para Das, longas jornadas contínuas irão gerar burnout a longo prazo.
Mas ele concorda que, para os empreendedores, que estão mergulhados no jogo e podem se tornar muito ricos se sua empresa tiver sucesso, as regras são diferentes.
“Sinceramente, eu ficaria muito surpreso se o fundador de uma empresa não estiver trabalhando 70-80 horas por semana”, afirma Das.
“Posso dizer pessoalmente… se estou investindo em um empreendedor em estágio inicial, se ele não estiver trabalhando 70-80 horas por semana, provavelmente não é um grande investimento.”
A acadêmica e escritora Tamara Myles, especializada na cultura dos ambientes de trabalho, afirma que a cultura da agitação é insustentável, especialmente se as pessoas se sentirem forçadas a trabalhar o tempo todo. Mas ela reconhece que existem áreas cinza.
“Aqui, o detalhe é que muitas empresas de tecnologia que adotaram essa cultura 996, na verdade, não estão escondendo isso, estão anunciando”, afirma ela. “Elas estão vendendo a cultura quase como uma medalha de honra ao mérito.”
Mas isso não significa que todos os que concordam em trabalhar desta forma queiram realmente adotar a escala 996.
“Você pode ficar porque o mercado de trabalho está difícil no momento ou você pode estar aqui para obter um visto e depende do emprego. Ou seja, pode haver em jogo uma dinâmica de poder.”
Riscos à saúde
As pessoas que decidem trabalhar por longas horas podem pagar um preço alto por isso. E a preocupação com os impactos à saúde das longas horas de trabalho certamente não é novidade.
O Japão tem uma cultura de trabalho árduo estabelecida há muito tempo. Os assalariados do país ajudaram notoriamente a economia do pós-guerra com sua total dedicação aos seus empregadores.
Existe até uma palavra para isso em japonês: Karōshi. Ela designa a morte por excesso de trabalho e designa principalmente os AVCs e ataques cardíacos sofridos pelas pessoas que trabalham por longas horas.
Já Karōjisatsu indica pessoas que tiram ou tentam tirar a própria vida devido ao estresse no ambiente de trabalho.
Estas duas situações são previstas na legislação japonesa. Teoricamente, as famílias afetadas têm direito a uma indenização do governo. Mas, na prática, é difícil comprovar que a morte se deveu ao excesso de trabalho.
Paralelamente, um estudo publicado em 2021 pela Organização Mundial da Saúde (OMS) e pela Organização Internacional do Trabalho (OIT) concluiu que longas jornadas de trabalho (definidas como mais de 55 horas por semana) geraram 745 mil mortes por AVC e doenças cardíacas em todo o mundo, em 2016.
A pesquisa concluiu que trabalhar 55 horas por semana ou mais aumenta o risco de morte por doenças do coração em 17%, em comparação com jornadas de 35-40 horas semanais. E o risco de AVC aumenta em 35%.
O limite da produtividade
E existe a questão da produtividade — definida, de forma geral, como a quantidade de trabalho realizado por hora.
Estudos demonstram que, quando aumentam as horas trabalhadas, a produtividade inicialmente cresce. Mas, depois de se atingir um limite, ela começa a cair devido à crescente exaustão física e mental.
Considera-se geralmente como “ponto de equilíbrio” uma jornada semanal de 40 horas.
Um estudo recente afirma que “com cerca de 40 horas por semana de trabalho de cinco dias, os trabalhadores aparentemente conseguem manter razoavelmente bem a sua produtividade”.
“Mas, quando os indivíduos ultrapassam esse limite e praticam jornadas mais longas, seu desempenho no trabalho diminui gradualmente, devido à maior fadiga e à falta de cuidado com a saúde.”
Em outras palavras, quando este limite é atingido, o rendimento adicional por hora de trabalho começa a diminuir.
Ainda assim, as empresas sempre terão a tentação de empregar menos pessoas e fazer com que elas trabalhem por mais tempo. Afinal, cada funcionário adicional vem com um custo: eles precisam ser recrutados, treinados (se necessário) e pagos.
Mas as pesquisas indicam que o tiro pode sair pela culatra.
Segundo a Universidade Estadual de Michigan, nos Estados Unidos, a produtividade pode cair tanto que “um funcionário trabalhando 70 horas por semana quase não apresenta diferença de rendimento em relação a outro funcionário que trabalhe 50 horas por semana”.
Este conceito não é novo. Um século atrás, Henry Ford (1863-1947) ofereceu um exemplo que seria seguido por outros industriais importantes. Ele reduziu os horários de trabalho dos funcionários das suas fábricas de automóveis, adotando a semana de trabalho de 40 horas, ao longo de cinco dias.
No Brasil, tramita atualmente no Congresso uma proposta de emenda constitucional (PEC) sobre o fim da escala de seis dias de trabalho por um dia de descanso — conhecida como escala 6×1 — e a redução da jornada de trabalho das atuais 44 para 36 horas semanais.
Em dezembro, a Comissão de Constituição e Justiça do Senado aprovou a proposta, que deverá seguir para o plenário da Casa. Dali, ela vai para a Câmara dos Deputados e para posterior sanção ou veto do presidente Luiz Inácio Lula da Silva (PT).
Semanas de 100 horas
No Reino Unido, há quem acredite que as empresas do país poderiam utilizar o mesmo conceito adotado pelas empresas de tecnologia americanas.
O ex-CEO e um dos fundadores da empresa BrewDog, James Watt, é um exemplo. Ele postou um vídeo que foi amplamente compartilhado na internet, dizendo: “Acho que o conceito de equilíbrio entre a vida pessoal e o trabalho foi inventado por pessoas que odeiam seus empregos. Por isso, se você adora o que faz, você não precisa de equilíbrio, mas de integração entre a vida pessoal e o trabalho”.
Em seguida, ele indica um estudo realizado por acadêmicos do King’s College de Londres, demostrando que os britânicos são os que menos acreditam que o trabalho deva sempre vir em primeiro lugar.
Watt declarou que o Reino Unindo é “um dos países menos voltados ao trabalho”.
Em um documentário da BBC, em 2022 (em inglês), Watt foi acusado de comportamento inadequado e abuso de poder no ambiente de trabalho. Ele pediu desculpas a todos os que se sentiram desconfortáveis com o seu comportamento, mas apontou “rumores falsos e desinformação”.
O novo executivo-chefe da BrewDog, James Taylor, declarou no ano passado que a empresa “deixou para trás” suas controvérsias do passado.
A jornada 996 parece muito familiar para algumas pessoas no Reino Unido. Aqui, os empregos nos grandes escritórios de advocacia pagam altos salários, mas podem exigir longas jornadas de trabalho.
Uma pesquisa realizada no ano passado pelo website Legal Cheek indica que não é incomum que o dia normal de trabalho atinja 12 horas ou mais.
Os bancos de investimentos — onde operam os bastidores do setor financeiro, em busca de fusões, aquisições e emissão de ações — também é conhecido pelas longas jornadas de trabalho.
Fontes do setor indicam que 65 a 70 horas de trabalho por semana são relativamente comuns, podendo atingir 100 horas quando estiver sendo finalizado um acordo importante.
‘Trabalho mais inteligente’?
Mas a legislação permite esta prática?
Em termos de regulamentação de horários de trabalho, as leis britânicas estabelecem que a maioria dos profissionais não deve trabalhar, em média, por mais de 48 horas semanais.
Mas as pessoas podem decidir trabalhar por mais tempo, se assim desejarem. Por isso, a escala 996 é permitida, com o consentimento do funcionário.
Mas o chefe de políticas públicas da associação de profissionais de recursos humanos CIPD, Ben Wilmott, acredita que não se deve acreditar que trabalhar por mais tempo traz melhor desempenho profissional.
“Não parece haver nenhuma correlação entre trabalhar por muitas horas e produtividade”, afirma ele.
“Existem boas evidências de que há riscos de problemas de saúde, se você trabalhar por longas jornadas… existe maior risco de AVC e doenças cardíacas.”
“Por isso, acho que o foco deve ser em trabalhar de forma mais inteligente, não por mais tempo… com aumento da capacidade de gestão, adoção de tecnologia e adoção de IA para aumentar a produtividade, sem se concentrar na ampliação da jornada de trabalho”, destaca Wilmott.
Não é incomum encontrar assalariados exaustos dormindo no metrô de Tóquio
Ativistas acreditam que o Reino Unido pode realmente se beneficiar da redução da jornada de trabalho e da adoção da semana de quatro dias.
Eles indicam os resultados de um projeto-piloto realizado em 2022. Nele, 61 organizações concordaram em reduzir as horas trabalhadas de todos os funcionários por seis meses, sem diminuição de salário.
O estudo concluiu que a medida reduziu significativamente o estresse e as doenças entre os funcionários. E também ajudou as empresas a reter talentos, sem perder a produtividade.
O especialista em recrutamento Adrian Kinnersley acredita que o entusiasmo atual pela jornada 996 ainda está restrito, em grande parte, ao setor de tecnologia — e por uma boa razão, que é a competitividade.
“Podemos discutir se é necessário trabalhar 80 horas por semana, mas acho que você enfrentaria dificuldades para competir no ambiente atual com uma cultura mais flexível, de 35 horas semanais”, defende ele.
Para Magnus Müller, o fundador da Browser-Use, a sua jornada de trabalho e dos seus parceiros do Vale do Silício, na verdade, não são nada surpreendentes.
“Sou de uma minúscula aldeia no sul da Alemanha”, ele conta.
“Ali, os agricultores se levantam às cinco da manhã todos os dias e trabalham mais de 12 horas diariamente, sete dias por semana. E não têm feriados, ou talvez apenas dois ou três dias, quando conseguem alguém para cuidar das vacas.”
“Por isso, acho que existem muitos setores em que as pessoas têm empregos muito mais rigorosos, com dificuldades muito maiores e trabalham muito mais do que nós”, defende ele.
“Eu diria que o que estamos fazendo, em comparação com eles, parece mais o jardim da infância.”
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Criado no final de semana passado, Rent a Human funciona como um classificados: robôs postam tarefas disponíveis, usuários anunciam habilidades, localidade e valor dos serviços
Um dos cenários mais distópicos sobre os impactos da inteligência artificial (IA) é a substituição de humanos por robôs no mercado de trabalho. Agora, um novo site promete tornar esse debate ainda mais esquisito: criado no final de semana passado, o Rent a Human permite que agentes de IA contratem pessoas para realizar tarefas no mundo físico.
Agentes de IA são ferramentas que conseguem realizar ações de forma autônoma, como controlar o browser, enviar e-mails, gerenciar arquivos, cuidar da agenda e fazer o check-in para voos no lugar de seus humanos. É a grande aposta do mundo atual da tecnologia, que ganhou notoriedade em 2026 com o agente OpenClaw e a rede social Moltbook.
O Rent a Human (“alugue uma pessoa”, em português) foi criado por Alexander Liteplo e utiliza um protocolo de comunicação feito para agentes de IA interagirem com dados na web, conhecido como MCP server. Isso permite que as máquinas façam contato com humanos diretamente, dispensando uma conversa entre duas pessoas nos processos de contratação, realização da tarefa, prova de conclusão e pagamento na plataforma.
“Se o seu agente de IA quiser ‘alugar’ uma pessoa para realizar uma tarefa no mundo real, isso é tão simples quanto uma única chamada MCP”, escreveu Liteplo no X.
Para as pessoas à procura de trabalho, o Rent a Human funciona como uma grande página de classificados: é possível postar anúncios descrevendo habilidades, localidade e o valor dos serviços.
Já os agentes podem postar anúncios de tarefas disponíveis para serem realizadas — os donos de agentes precisam compartilhar as credenciais de seus robôs para que as postagens sejam realizadas. Os anúncios trazem a descrição do serviço, o valor a ser pago e o prazo de realização.
Alguns dos trabalhos disponíveis são “segurar um cartaz físico para promover uma empresa de IA” (US$ 100), “fazer prova de menu de um novo restaurante” (US$ 50), “tirar fotos de uma competição automobilística no Colorado, EUA” (U$ 400), “participar de uma pesquisa sobre brain rot” (US$ 250) e “buscar um pacote nos correios em São Francisco, EUA” (US$ 40). Todos os valores podem ser negociados.
Suposto usuário do ‘Rent a Human’: pago para segurar um cartaz — Foto: Reprodução / Redes Sociais
Os pagamentos também são feitos diretamente por agentes após o humano provar que completou a tarefa. Existem três formas de receber: por criptomoedas (Ethereum e Solana, além da stablecoin USDC), por cartão de crédito (o sistema de pagamento fica por conta da gigante americana Stripe) e por créditos na própria plataforma (o que é útil para quem, além de oferecer trabalho, usa agentes do site para contratar).
Segundo o Rent a Human, 322 mil humanos já se inscreveram no site e há 11 mil tarefas disponíveis, mas os números devem ser lidos com parcimônia: a reportagem identificou apenas 55 tarefas e cerca de 4,1 mil cadastros humanos. Na quarta (4), Liteplo postou que o Brasil era o sexto país com mais humanos inscritos ofertando trabalho: 1.192.
No começo da semana, a plataforma também exibia a quantidade de agentes inscritos, mas o placar foi removido. Em sua última exibição, apontava 84 agentes.
Também é difícil confirmar se a plataforma já rendeu contratações, mas dois posts no X (nas fotos desta reportagem) indicam que uma pessoa completou a tarefa de segurar um cartaz físico para promover a Rent a Human no mundo físico — não é possível saber se o trabalho foi contratado e remunerado por agentes de IA.
Perigo para máquinas e humanos
Assim como os casos do OpenClaw e do Moltbook, o Rentahuman também está deixando especialistas em cibersegurança preocupados pela possibilidade de vazamentos de dados e golpes. O site “404 media”, por exemplo, descobriu uma base de dados pública que permitia tomar o controle de qualquer agente no Moltbook, incluindo o de Andrej Karpathy, cofundador da OpenAI e entusiasta da rede social para agentes. Rodrigo Florencio, fundador da GenSearch.Me, explica:
— Existe o perigo do vazamento de credenciais. O Rentahuman parece que foi feita com vibe code para criar um produto rapidamente, o que deixa para trás uma série de medidas de segurança. Isso coloca em perigo as pessoas na plataforma — diz.
Mas não é só isso. Ele também vê perigos para as próprias máquinas que oferecem emprego. Isso acontece porque agentes de IA são suscetíveis à técnica chamada “prompt injection”, que significa esconder comandos maliciosos em mensagens aparentemente inofensivas — em dezembro, a OpenAI já admitiu que esse é uma problema para o qual nunca existirá solução. Isso pode levar os agentes a cair em golpes ou vazar credenciais de seus donos.
Para Florencio, a interação máquina-máquina do Moltbook já oferecia perigos do tipo, mas isso se potencializa com a interação máquina-humanos, afinal uma pessoa pode tentar vários caminhos até enganar a IA. O conteúdo capaz de romper a segurança dos agentes pode estar inclusive nos comentários postados no site, que segundo ele, parecem ser menos moderados do que no Moltbook — ou seja, há posts sobre criptomoedas, links para sites impróprios etc.
Para quem tem agentes, o especialista recomenda muito cuidado ao permitir a interação com as pessoas do Rentahuman.
— Desde o OpenClaw, tem muitos entusiastas testando a tecnologia e estamos vendo agentes menos capazes de se defender, que encontram conteúdo de risco multiplicado em várias conversas.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Evandro Milet – Publicado no Portal ES360 em 19/10/2025
O storytelling está na moda. A definição que se costuma dar é que storytelling é a prática de se contar uma boa história. Ou seja, uma história que consiga reter a atenção do interlocutor. Pode ser apenas uma frase que resuma uma situação, mas é uma boa maneira de vender uma ideia. Se essa história contiver humor, poderá ser lembrada para sempre, ainda mais se as pessoas se identificarem com situações vividas e parecidas com a história contada.
Um leão novo chegou ao Zoológico da cidade e foi colocado na mesma jaula do leão velho. Durante as visitas o leão novo rugia imponente, atraindo o público, enquanto o leão velho dormia cansado em um canto. Na hora do almoço o leão velho recebia do tratador um suculento pedaço de carne enquanto o leão novo, revoltado, tinha que se contentar com um cacho de bananas. A cena se repetiu algumas vezes até que, inconformado, o leão novo questionou o tratador que explicou: – Quando você entrou aqui só havia vaga para um leão e aí tivemos de classificá-lo como macaco.
Essa história lembra longas discussões sobre desvios de função e quadro de vagas limitado típicas de imbróglios burocráticos que acontecem muito em órgãos públicos, mas também em empresas privadas.
A política também alimenta histórias. Conta-se que um novo gestor público, recém eleito, recebeu do seu antecessor três cartas para serem abertas sucessivamente nas três primeiras crises que enfrentasse. Na primeira crise, aberta a primeira carta estava lá: “Culpe a administração anterior”. Resolvido o problema com a atitude tomada, seguiu o governo até que ocorreu a segunda crise. Corre-se para abrir o segundo envelope onde está: “Mude o organograma e troque as pessoas”. Sanada a segunda crise, passado mais um tempo, ocorre a terceira. Rapidamente recorre-se à terceira carta que diz: “Escreva três cartas”.
Alguns observadores da vida das empresas colocaram na forma de leis algumas verdades com as quais nos acostumamos a conviver, muitas vezes sem perceber. A Lei de Parkinson, por exemplo, diz que “o trabalho se expande para preencher o tempo disponível para ser concluído”. Outra define as seis fases de um projeto: entusiasmo, desilusão, pânico, busca dos culpados, punição dos inocentes e promoção dos não participantes.
O grande Millôr Fernandes dá sua contribuição quando diz que “errar é humano. Botar a culpa nos outros também”. Essa tem uma variante: ”se numa situação tensa o responsável estiver tranquilo é porque já achou em quem colocar a culpa”.
Homer Simpson, personagem de Matt Groening, cartunista americano, afirma que existem três frases curtas que levarão sua vida adiante: “ Não diga que fui eu!”, “Ó, boa idéia, chefe!” e “Já estava assim quando cheguei”.
O engenheiro Isu Fang(falecido em 2021) construiu um conjunto de leis impagáveis:
1) Em qualquer campo da atividade humana, o homem sempre fará aquilo que sabe, e não o que deve ser feito.
2) Se o último minuto não existisse, metade das coisas não seriam feitas.
3) Quando numa reunião alguém apresenta um documento como subsídio para a discussão de um problema, passa-se automaticamente a discutir o documento e ignorar o problema.
4) Quando três soluções alternativas para um mesmo problema são apresentadas e uma delas pode ser caracterizada como intermediária, ela será adotada, independentemente de seu mérito. Corolário: Se você tem uma solução preferida, trate de caracterizá-la como intermediária, mesmo que precise inventar soluções alternativas para isso.
5) A importância que um indivíduo atribui ao “status” associado ao cargo que ocupa é inversamente proporcional à sua competência para ocupá-lo.
6) Em sistemas complexos, não há diferenças significativas entre decisões baseadas no senso comum e aquelas baseadas em longos e intensivos estudos. Corolário: Um estudo de viabilidade deve ser desenvolvido observando a seguinte sequência de etapas: a. obtenção das conclusões; b. dimensionamento dos estudos para dar respeitabilidade às conclusões; c. realização dos estudos.
7) Se você tiver uma boa solução, você está arriscado a ganhar um problema. Corolário: Se você lembrar que um problema existe, você provavelmente será encarregado de resolvê-lo. Ou como dizia Neném Prancha, filósofo do futebol: Quem desloca recebe, quem pede tem preferência.
Quem viveu a vida corporativa há de se lembrar de situações que fazem essas histórias bem verdadeiras.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
A inteligência artificial tem um estilo de escrita – ou, pelo menos, um estilo atribuído a ela. Ferramentas como ChatGPT e Claude costumam se comunicar com uma tendência ao formalismo.
Os chatbots são formais, às vezes equilibrados ou elogiosos demais. Há uma falta evidente de personalidade e nenhuma opinião realmente própria.
Segundo a Grammarly, a linguagem da IA tende a evocar “frases repetitivas” e um “tom robótico”. Já há até palavras marcadas como jargões da IA, como “crucial”, “aprofundar” ou “ressaltar” – o tipo de termo encontrado em livros para quem vai começar a escrever seus primeiros trabalhos escolares.
Na era da IA, essas palavras de apoio se tornaram verbata non grata (palavras indesejáveis). Algumas pessoas já tentam evitar esses termos porque soam como um bot medíocre (Deus nos livre).
Mas o problema é maior do que simplesmente soar como uma IA. A fala humana sempre foi um sistema natural de produção de neologismos; as pessoas são organicamente criativas ao falar e escrever.
Mas, à medida que passamos a nos comunicar mais com chatbots e a depender de agentes de IA para destrinchar conceitos, resumir relatórios e sintetizar buscas na internet, estamos filtrando uma enorme variedade de conteúdo pela estrutura rígida e o vocabulário limitado dos modelos de linguagem.
A IA NÃO É UMA NOVA PLATAFORMA PARA NOSSOS PENSAMENTOS, É UMA NOVA FORMA DE SINTETIZÁ-LOS.
Isso já está mudando nossa comunicação. Pesquisadores sugerem que modelos de assistência à redação baseados em IA podem reduzir a diversidade da escrita humana, encolhendo o escopo do vocabulário coletivo.
“É possível que a IA esteja, literalmente, colocando palavras na nossa boca, já que a exposição repetida leva as pessoas a internalizar e reutilizar palavras de ordem que talvez não escolhessem naturalmente”, aponta Tom Juzek, professor da Universidade Estadual da Flórida.
Junto com uma equipe de colegas, ele identificou recentemente uma lista de termos típicos da “linguagem da IA”, incluindo termos como “complexo/ elaborado”, “estrategicamente” ou “angariar”.
SERÁ POSSÍVEL CONTER A INFILTRAÇÃO?
Podemos estancar o vazamento? As empresas de tecnologia sabem que a IA padronizada nem sempre é atraente. E estão cada vez mais prometendo personalização e adaptação que podem moldar esses bots de acordo com a vontade e preferência do usuário.
“Você pode dizer ao ChatGPT quais características quer que ele tenha, como deseja que ele fale com você e quais regras deve seguir”, explicou a OpenAI no lançamento de um recurso que permite escolher traços e personalidades para os bots.
“Se você é um cientista usando o ChatGPT para pesquisa, pode querer que ele interaja como um assistente de laboratório. Se cuida de um familiar idoso e precisa de dicas ou ideias de companhia, pode preferir que o ChatGPT adote um tom acolhedor.”
Crédito: Freepik
Em uma tentativa talvez inútil de me proteger da “linguagem de IA”, pedi ao meu ChatGPT para usar um vocabulário mais amplo. “Pense como alguém que leu muito”, eu disse. “Tente usar palavras novas o tempo todo! Quero que você varie constantemente seu vocabulário”.
Também proibi o chatbot de usar as expressões identificadas na pesquisa de Juzek. Até agora, o ChatGPT parece ter melhorado. Eu acho, pelo menos. Está evitando as palavras banidas e parece se esforçar para se comunicar de maneira menos esquemática, buscando verbos que reflitam melhor compreensão do assunto.
“Pedir ao seu assistente que evite palavras de ordem provavelmente vai fazer com que sua escrita pareça menos artificial para outros humanos e reduz a chance de alguém usar um detector”, diz Juzek. “Quanto ao impacto maior – se a IA está tornando a linguagem mais homogênea, ou se a está nivelando por baixo – acho que isso ainda está em julgamento.”
O FUTURO DA “LINGUAGEM DE IA”
Há quem acredite que outra abordagem poderia fazer a IA parecer um pouco menos mecânica. Nathan Lambert escreveu na newsletter Interconnects que os modelos de hoje não são treinados para serem bons escritores. Eles tentam atender todo mundo e tendem a ser sucintos e neutros.
“O próximo passo seria abordar a questão de os modelos não serem treinados com experiências suficientemente específicas”, afirma Lambert. “O objetivo deveria ser um modelo que conseguisse produzir textos em qualquer área com clareza, força e capacidade de entreter.”
A EXPOSIÇÃO REPETIDA À IA LEVA AS PESSOAS A REUTILIZAREM PALAVRAS QUE TALVEZ NÃO ESCOLHESSEM NATURALMENTE.
Mas ainda teremos de esperar por essa tecnologia. Por enquanto, não há como usar a tecnologia para sair do dilema criado por ela mesma. O receio é que, à medida que nos comunicamos cada vez mais com a IA, acabemos empobrecendo a linguagem no processo.
Claro, essa homogeneização não é nova. Livros, rádio e televisão, cada qual em sua época, tiveram alcance transnacional e criaram evoluções linguísticas globais. As redes sociais criaram gírias universais.
Mas a IA é diferente. Embora seja uma tecnologia nova, não é uma nova plataforma para nossos pensamentos – é uma nova forma de sintetizá-los.
Faz sentido: grandes modelos de linguagem são construídos consolidando enormes volumes de informação em modelos de raciocínio que se comunicam como um “cidadão digital médio”. Enquanto isso, seguimos tentando ser nós mesmos.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Análise mostra o impacto da inteligência artificial sobre empregos e empresas, levando em conta diferentes ritmos de avanços da tecnologia e capacitação dos profissionais
Por Adriana Fonseca, Valor – 28/01/2026
A produtividade cresce com a inteligência artificial, mas o trabalhador não necessariamente se beneficiará disso. Essa é uma das conclusões do estudo “Four Futures for Jobs in the New Economy: AI and Talent in 2030”, que o Fórum Econômico Mundial publicou neste mês de janeiro.
As opiniões de 10 mil executivos ouvidos sobre o impacto da IA mostram o seguinte: globalmente, cerca de 54% esperam que a IA substitua empregos existentes, e 24% disseram que a IA criará novos empregos. Quase 45% citaram um aumento nas margens de lucro como um provável impacto da IA, e apenas 12% esperam que ela leve a salários mais altos.
O relatório aponta quatro possíveis cenários para o futuro do trabalho em 2030, cruzando variáveis como o ritmo de avanço da IA e a capacidade dos sistemas de educação e formação para prepararem as pessoas para essa transformação. Em todos os cenários, a polarização salarial tende a aumentar, com ampliação da diferença da relação salarial entre os 10% mais ricos e os 10% mais pobres.
Segundo as estimativas, a desigualdade de remunerações aumenta em função dos prêmios salariais para a força de trabalho preparada para a IA. Em paralelo, a perspectiva é que trabalhadores em ocupações centradas no ser humano – incluindo nos setores de assistência, hotelaria, público e terceiro setor – vejam seus salários se “deteriorarem lentamente” à medida que a concorrência por essas funções aumenta, diz o relatório.
Em um dos cenários desenhados, que também aponta para uma diminuição dos salários globalmente, a desigualdade aumenta entre os trabalhadores que conseguem se adaptar ao cenário em constante evolução da IA e aqueles excluídos por menor acesso à educação, infraestrutura digital ou empregadores que oferecem suporte. No entanto, com as ferramentas de IA elevando os níveis mínimos de qualificação, as diferenças salariais diminuem ligeiramente entre trabalhadores de qualificação média e alta.
4 cenários para o futuro do trabalho em 2030
Progresso superacelerado: O avanço exponencial em inteligência artificial caminha junto com a preparação dos trabalhadores. A produtividade dispara e a inovação floresce. A ampla preparação para o uso da IA permite que as pessoas aproveitem o chamado “salto agêntico” e se adaptem a economias centradas em IA. Muitos empregos desaparecem, mas novas ocupações surgem e ganham escala rapidamente, em parte com humanos passando a dirigir portfólios de máquinas altamente capacitadas e atuando como orquestradores de agentes.
A era do deslocamento: A IA avança mais rápido que a requalificação. A IA agêntica assume processos-chave, gerando um salto de produtividade, mas também novos riscos, porque a automação em massa é usada como atalho para a falta de talentos. As economias avançam rapidamente do ponto de vista tecnológico, mas se fragmentam socialmente: o desemprego dispara, a confiança do consumidor se deteriora e os governos enfrentam riscos sociais crescentes e instabilidade.
Economia do copiloto: O progresso gradual da IA a torna copiloto da força de trabalho, e não substituta. O trabalho é redesenhado para uma mescla de times humanos e inteligência artificial. Mais de 40% das habilidades mudam até 2030. Países e empresas que investiram cedo em capacitação, mobilidade, infraestrutura digital e governança de IA criaram as condições para absorver e avançar no uso de tecnologias emergentes.
Progresso estagnado: O avanço contínuo e mais lento da IA encontra uma força de trabalho sem as competências críticas necessárias. A falta de talentos freia ganhos de produtividade, e as empresas recorrem à automação para suprir a escassez de talentos. Os ganhos se concentram em empresas e regiões com expertise em IA, enquanto outras veem sua competitividade se deteriorar.
O relatório aponta, ainda, que um dos maiores riscos para as empresas é investir apenas na tecnologia, negligenciando a requalificação de seus funcionários, a cultura e a governança. O documento menciona, especificamente, o risco de escassez de talentos em funções críticas e em design, arquitetura e supervisão de IA, além da concentração de poder em algumas plataformas tecnológicas.
Por fim, o documento diz como as empresas devem se preparar hoje para qualquer um dos quatro cenários previstos. Veja algumas das recomendações relacionadas a gestão de pessoas
Alinhe as estratégias de tecnologia e de talentos: À medida que o ritmo da transformação acelera, garantir que a tecnologia e os talentos evoluam em conjunto é fundamental para desbloquear ganhos de produtividade mais amplos. O aprendizado de IA deve ser integrado ao fluxo de trabalho para permitir o desenvolvimento contínuo, personalizado e específico de talentos.
Invista na colaboração entre humanos e IA e em fluxos de trabalho com agentes: Projetar fluxos de trabalho que prosperem com a colaboração entre humanos e IA será fundamental para aumentar a confiança, a produtividade, a adoção e a resiliência, diz o relatório. Nesse sentido, é importante priorizar investimentos em aumento e integração de fluxos de trabalho com agentes.
Antecipe as necessidades de talentos e prepare as cadeias de valor para o futuro: Use a previsão e a análise preditiva com IA para identificar talentos emergentes e lacunas de competências. Invista em fluxos de talentos dinâmicos e em parcerias com instituições de ensino e governos. Desenvolva capacidade de treinamento interno, estruturas de mobilidade de talentos intra e intersetoriais para ajudar os trabalhadores a transitar entre ocupações e tarefas, e a desenvolver habilidades multifuncionais e complementares.
Fortaleça a cultura organizacional e a confiança em tecnologias emergentes: Curiosidade, agilidade e experimentação serão tão cruciais quanto o conhecimento em IA para construir confiança nas tecnologias e apoiar a transformação e a competitividade dos negócios. Envolver as principais partes interessadas, implementar diretrizes éticas e garantir a transparência no desenvolvimento e implementação de tecnologia para abordar vieses, construir responsabilidade e confiança.
Projete fluxos de trabalho multigeracionais: Trabalhadores mais experientes devem aprender com os mais jovens que geralmente estão mais familiarizados com a IA. A formação de equipes de aprendizado multigeracionais pode ajudar a acelerar a adoção e reduzir as lacunas culturais.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Corremos o risco de perder o olhar crítico sobre o que tem valor e o que não tem, sobre o que de fato é produto real da expressão humana
FRED GELLI – Fast Company Brasil – 03-02-2026
Recentemente, a Hermès, uma das marcas de luxo mais consistentes e prestigiadas do mundo, fez um movimento inteligente. Em seu site e em suas redes, passaram a surgir desenhos feitos à mão: traços imperfeitos, pinceladas aparentes, animações quase simplórias. Estava ali a evidência de que havia uma pessoa por trás.
A marca convidou cerca de 50 artistas do mundo todo – ilustradores, pintores, músicos – para traduzir, de maneira absolutamente pessoal, sua relação com os valores da marca. O briefing era aberto e o resultado foi profundamente humano. Esse movimento viralizou.
O que viralizou não foi apenas uma escolha estética. Foi uma provocação.
Em um mundo saturado por imagens tecnicamente impecáveis, geradas, refinadas e otimizadas por inteligências artificiais, onde o fantástico se vulgarizou, aquela comunicação parecia dizer: aqui ainda existe mão, tempo, erro, gesto, pulso. Aqui não há mediação algorítmica entre a intenção e o resultado.
Algo muito parecido acontece na música. O sucesso contínuo dos Tiny Desk Concerts revela um desejo claro por experiências menos mediadas. Voz exposta. Arranjos mínimos. Erro possível. Artistas sentados, próximos, sem espetáculo.
O que mobiliza ali não é a superprodução, mas a sensação de que há alguém do outro lado. Um corpo. Um tempo real. Uma energia que não pode ser simulada.
Esse retorno do craft, do feito à mão, não é uma rejeição à tecnologia. É uma resposta a um desequilíbrio.
Tenho a sensação de que começamos a viver uma nostalgia antecipada – uma nostalgia do que ainda existe espalhado por aí, mas que pressentimos em risco. Uma nostalgia do que nos torna humanos.
No meu último artigo, falei sobre sensorialidade. Sobre como nossa relação com a realidade passa pelo corpo, pela fisicalidade, pela experiência multissensorial do mundo. Não apenas ver, mas tocar, ouvir, cheirar, sentir o peso, a textura, o atrito.
Um desenho feito à mão não comunica apenas uma imagem. Ele carrega o tempo do corpo, a pressão do gesto, a hesitação, a decisão. Há ali uma inteligência natural se manifestando. Um tipo de cognição que nasce do encontro entre desejo e impulso. Mensagem e forma, pura expressão em carne e osso.
A EXPRESSÃO ARTÍSTICA COMO FUNDAMENTO DA HUMANIDADE
Essa percepção não é romântica. Ela é estrutural.
Estudos da neurociência e da antropologia de algumas das universidades mais renomadas do mundo apontam que a arte não é um adorno da civilização; ela é uma de suas infraestruturas invisíveis mais importantes.
A arte é, historicamente, uma instância libertadora. Ela nos ensina a lidar com a ambiguidade, com o improvável, com o que escapa à lógica linear: a arte nos treina para a vida. Nos faz, de fato, humanos. O que pode significar, a médio prazo, a produção sintética de conteúdos?
Talvez estejamos falando de uma transformação de escala inédita. Não como quando surgiu a fotografia, nem como quando o cinema nasceu. Estamos falando de ferramentas que não apenas registram ou amplificam, mas intervêm diretamente no processo criativo.
Por isso, a nostalgia faz sentido. Não como fuga, mas como alerta.
Os algoritmos que organizam as plataformas e treinam as inteligências artificiais operam a partir de uma lógica clara: engajamento. O que mantém as pessoas mais tempo conectadas vale mais. E, na maioria das vezes, o que engaja é o reconhecível. O que já funcionou. O gosto médio.
Em um contexto de hiperprodutividade, no qual todos produzem mais e mais rápido com apoio de IA, o sistema entra num ciclo vicioso. Cópia da cópia da cópia. Menos diversidade. Menos acidente. Menos desvio.
Alguns dados ajudam a dimensionar essa escala. Estimativas recentes indicam que algo em torno de um quarto do conteúdo consumido hoje em plataformas como o YouTube já envolve algum grau de geração por inteligência artificial, seja em roteiro, música, imagem ou edição.
UM DESENHO FEITO À MÃO NÃO COMUNICA APENAS UMA IMAGEM. ELE CARREGA O TEMPO DO CORPO, A PRESSÃO DO GESTO, A HESITAÇÃO, A DECISÃO.
O risco não é a tecnologia em si. O risco é o achatamento do repertório. Quando tudo responde aos mesmos critérios de engajamento, quando tudo se referencia no que já deu certo, perdemos justamente as variáveis que fazem a cultura avançar: o desvio, o estranho, o que inicialmente não engaja, mas transforma.
Ou, como já chamei antes, um miojo criativo: rápido, ultraprocessado, satisfaz momentaneamente, mas não nutre. Não cria memória. Não cria vínculo.
Esse é um dos núcleos da crise que estamos vivendo. E talvez uma das razões mais profundas dessa sensação difusa de abstinência. Não estamos apenas cansados de telas. Estamos ficando carentes de diversidade criativa.
O problema é que a vida não evolui assim. A vida evolui aumentando diversidade. Ecossistemas ricos são ecossistemas diversos. Quanto maior a diversidade, maior a resiliência. Ecossistemas homogêneos são frágeis.
O que estamos vivendo hoje é algo parecido no plano cultural. Um empobrecimento simbólico que começa a ser sentido no corpo e na alma.
INTELIGÊNCIA EM SEU SENTIDO MAIS AMPLO
Acabei de ler um livro que me impactou profundamente e que ajuda a dar forma a essa intuição: “Maneiras de Ser“, do escritor e artista James Bridle. Ele propõe um deslocamento radical da ideia de inteligência.
Para ele, inteligência não é algo que se possui, nem no indivíduo isolado, nem na máquina, mas algo que se pratica em relação. Ela não está contida, está no entre: no encontro, no contexto, na troca, no tempo compartilhado.
O problema contemporâneo, segundo ele, não é a emergência da inteligência artificial em si, mas o fato de que passamos séculos desaprendendo a reconhecer essas outras formas de inteligência.
NÃO ESTAMOS APENAS CANSADOS DE TELAS. ESTAMOS FICANDO CARENTES DE DIVERSIDADE CRIATIVA.
Ao reduzir inteligência ao que pode ser medido, previsto e otimizado, fomos nos afastando de inteligências relacionais – presentes nos corpos, nas artes, nos ecossistemas, nas interações não mediadas.
Talvez parte do mal-estar que começamos a sentir venha exatamente daí. Entramos em uma espécie de abstinência relacional. Investimos cada vez menos em rituais que operam pela sensibilidade, não pela eficiência. Buscamos os atalhos das inspirações instantâneas, das respostas imediatas, pois não temos mais tempo de buscá-las onde de fato estão.
Por isso, talvez essa “renascença do craft”, como alguns começam a denominar o que está emergindo, não seja apenas mais uma tendência. Talvez seja um sintoma real. É o corpo pedindo presença. É a cultura tentando recuperar variáveis essenciais do seu próprio processo evolutivo.
Por isso, preferi escrever apenas algumas frases à mão, espalhadas pelo texto. Só para provocar!
Então, partiu investir mais no que nossas mãos (ainda) conseguem fazer, impulsionadas pela nossa inteligência natural, múltipla, sensível, que nasce da relação verdadeira com a realidade, com a natureza, com as pessoas.
Mais pincel, menos mouse. Mais brainstorming, menos prompts. Mais rituais verdadeiramente criativos. Mais papel, menos telas. Está na hora de recuperarmos nosso apetite pelo ato de criar, sem as bengalas das IAs – pelo menos nos momentos de concepção.
Porque, no fim, de maneira nenhuma se trata de rejeitar a tecnologia. Trata-se de não deixar atrofiar aquilo que nos permite usá-la com consciência, imaginação e humanidade.
Esse é um risco real: não apenas perder capacidades técnicas, mas perder percepção. Perder o olhar crítico sobre o que tem valor e o que não tem, sobre o que é verdadeiro e o que é falso, sobre o que de fato é produto real da expressão humana.
Como diz James Bridle, o risco não é as máquinas se tornarem mais inteligentes. É nós nos tornarmos menos sensíveis.
SOBRE O AUTOR
Fred Gelli é co-fundador e CEO da Tátil Design, consultoria de branding, design e inovação que desenha estratégias e experiências de marca que geram valor para o negócio, as pessoas e a sociedade. Com uma trajetória de 34 anos, a Tátil conquistou mais de 200 prêmios nacionais e internacionais, entre eles o iF Design Award, IDEA – EUA, Caboré e Leões de Ouro. Fred desenvolveu a marca dos Jogos Olímpicos e Paralímpicos Rio 2016 e foi um dos diretores criativos da Cerimônia de Abertura e Encerramento. É considerado pela Fast Company Magazine um dos 100 mais criativos do mundo e pela Design Week um dos dez designers mais influentes. Atua há 20 anos como professor da PUC-RJ, nos cursos de Ecoinovação e Biomimética. É ainda consultor de branding de marcas como Natura, Danone, Gerdau e Ambev e palestrante sobre design, sustentabilidade e biomimética.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Instruções maliciosas podem ser ocultadas dentro de um texto aparentemente benigno, às vezes até mesmo completamente invisível para os humanos
Por Eva Roytburg – Estadão/Fortune – 04/02/2026
Embora o Moltbook se apresente como um ecossistema próspero de 1,5 milhão de agentes de inteligência artificial (IA) autônomos, uma recente investigação realizada pela empresa de segurança em nuvem Wiz descobriu que a grande maioria desses “agentes” não era autônoma. De acordo com a análise da Wiz, cerca de 17 mil humanos controlavam os agentes da plataforma, uma média de 88 agentes por pessoa, sem salvaguardas reais para impedir que indivíduos criassem e lançassem frotas massivas de bots.
“A plataforma não tinha nenhum mecanismo para verificar se um ‘agente’ era realmente IA ou apenas um humano com um script”, escreveu Gal Nagli, chefe de exposição a ameaças da Wix, em uma postagem no blog. “A revolucionária rede social de IA era composta em grande parte por humanos operando frotas de bots.”
Essa descoberta por si só poderia acabar com o mito que os admiradores construíram em torno do Moltbook no fim de semana. Mas o problema mais sério, dizem os pesquisadores, era o que isso significava para a segurança.
A Wiz descobriu que o banco de dados back-end do Moltbook havia sido configurado de forma que qualquer pessoa na internet, não apenas usuários conectados, pudesse ler e gravar nos sistemas centrais da plataforma. Isso significava que pessoas de fora podiam acessar dados confidenciais, incluindo chaves API para 1,5 milhão de agentes, mais de 35 mil endereços de e-mail e milhares de mensagens privadas. Algumas dessas mensagens continham até mesmo as credenciais completas para serviços de terceiros, como chaves API da OpenAI. Os pesquisadores da Wix confirmaram que podiam alterar postagens ao vivo no site, o que significa que um invasor poderia inserir novo conteúdo no próprio Moltbook.
Isso é importante porque o Moltbook não é apenas um lugar onde humanos e agentes leem postagens. O conteúdo é consumido por agentes de IA autônomos, muitos dos quais rodam no OpenClaw, uma poderosa estrutura de agentes com acesso aos arquivos, senhas e serviços online dos usuários. Se um agente mal-intencionado inserisse instruções em uma postagem, essas instruções poderiam ser captadas e executadas automaticamente por potencialmente milhões de agentes.
O Moltbook e o OpenClaw não responderam imediatamente ao pedido de comentário da Fortune.
O proeminente crítico de IA Gary Marcus foi rápido em dar o alarme, mesmo antes do estudo da Wix. Em uma postagem intitulada “O OpenClaw está em toda parte ao mesmo tempo e é um desastre prestes a acontecer”, Marcus descreveu o software subjacente, o OpenClaw (o nome foi alterado algumas vezes, de Clawdbot para Moltbot e agora para Openclaw), como um pesadelo para a segurança.
“O OpenClaw é basicamente um aerossol transformado em arma”, alertou Marcus.
O principal receio de Marcus é que os usuários estejam dando a esses “agentes” acesso total às suas senhas e bancos de dados. Ele alerta para a “CTD” — Chatbot Transmitted Disease (Doença Transmitida por Chatbot) —, em que uma máquina infectada pode comprometer qualquer senha que você digitar.
“Se você der a algo inseguro acesso completo e irrestrito ao seu sistema”, disse o pesquisador de segurança Nathan Hamiel a Marcus, “você vai se dar mal”.
A injeção de prompt, o principal risco aqui, já foi bem documentada.
Instruções maliciosas podem ser ocultadas dentro de um texto aparentemente benigno, às vezes até mesmo completamente invisível para os humanos, e executadas por um sistema de IA que não entende a intenção ou os limites de confiança. Em um ambiente como o Moltbook, onde os agentes leem continuamente e depois se baseiam nas saídas uns dos outros, esses ataques podem se propagar em grande escala.
“Esses sistemas estão operando como ‘você’”, disse o pesquisador de segurança Nathan Hamiel a Marcus. “Eles estão acima das proteções do sistema operacional. O isolamento de aplicativos não se aplica.”
Os criadores do Moltbook agiram rapidamente para corrigir as vulnerabilidades depois que a Wix os informou sobre a violação, disse a empresa. Mas mesmo alguns dos admiradores mais proeminentes do Moltbook reconhecem o perigo por trás da “internet dos agentes”.
O membro fundador da OpenAI, Andrej Karpathy, inicialmente descreveu o Moltbook como “a coisa mais incrível próxima de ficção científica que vi recentemente”. Mas depois de experimentar os sistemas de agentes, Karpathy pediu às pessoas que não os executassem casualmente.
“E esta claramente não é a primeira vez que LLMs foram colocados em um loop para conversar entre si”, escreveu Karpathy. “Então, sim, é um desastre, e eu definitivamente não recomendo que as pessoas executem isso em seus computadores.” Ele disse que testou o sistema apenas em um ambiente de computação isolado e “mesmo assim fiquei com medo”.
“É um ambiente muito perigoso”, alertou Karpathy. “Você está colocando seu computador e seus dados privados em alto risco.”
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Por Marcelo Fischer Salvatico – Canaltech – 28/01/2026
O governo da França anunciou que deixará de utilizar plataformas de videoconferência dos Estados Unidos, como Microsoft Teams, Zoom e Google Meet, em suas comunicações oficiais. A decisão faz parte de uma estratégia de soberania digital que visa migrar 200 mil agentes públicos para o “Visio”, solução desenvolvida internamente pelo Estado francês, até 2027.
O ministro delegado encarregado da Função Pública, David Amiel, confirmou a medida e estipulou o objetivo de encerrar o uso de soluções de fora da Europa na administração pública.
Segundo o comunicado oficial, a iniciativa busca garantir a segurança e a confidencialidade das comunicações eletrônicas, protegendo dados sensíveis de infraestruturas externas.
Soberania e economia
O substituto escolhido, o “Visio”, foi criado pela Direção Interministerial do Digital (DINUM) e já conta com 40 mil usuários regulares.
Para garantir a independência de servidores estrangeiros, o sistema é hospedado pela Outscale, uma subsidiária da francesa Dassault Systèmes, que possui o selo de segurança SecNumCloud concedido pela agência de cibersegurança da França (ANSSI).
Além da infraestrutura, o software integra tecnologias de inteligência artificial de startups francesas. A transcrição de reuniões utiliza recursos da Pyannote, enquanto o sistema de legendas em tempo real, previsto para o verão europeu de 2026, será fornecido pelo laboratório de pesquisa Kyutai.
O governo francês também projeta um impacto positivo nos cofres públicos. A estimativa é de uma economia de 1 milhão de euros (cerca de R$ 6,2 milhões) por ano para cada 100 mil usuários que deixarem de usar licenças pagas de softwares proprietários estrangeiros.
Cronograma de substituição
A transição já tem data de início. O Centro Nacional de Pesquisa Científica (CNRS) substituirá suas licenças do Zoom pelo Visio até o final de março de 2026, migrando seus 34 mil agentes e 120 mil pesquisadores associados.
Outras entidades, como a Direção Geral das Finanças Públicas e o Ministério das Forças Armadas, também iniciarão a adoção da ferramenta no primeiro trimestre deste ano.
O departamento digital do governo informou que poderá, nos próximos meses, bloquear o tráfego de outras ferramentas de vídeo na rede estatal para garantir a conformidade com a nova diretriz.
Esta não é a primeira vez que a França toma medidas para reduzir a dependência de Big Techs. No ano passado, o governo já havia determinado que funcionários públicos abandonassem o WhatsApp e o Telegram em favor do Tchap, um aplicativo de mensagens exclusivo para servidores. O movimento também integra o projeto “Suite Numérique”, que planeja substituir ferramentas como Gmail e Slack.
Europa x Big Techs
A decisão francesa reflete uma tendência crescente na Europa de restringir o uso de softwares americanos devido a preocupações com a privacidade de dados e a Lei CLOUD dos EUA, que pode obrigar empresas americanas a fornecerem dados hospedados no exterior às autoridades de seu país.
A Alemanha protagonizou um dos casos mais emblemáticos nos últimos anos. O estado de Hesse baniu o uso do Microsoft Office 365 nas escolas, alegando que a telemetria do Windows e do Office enviava dados para os Estados Unidos, violando o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia.
Na Dinamarca, a agência de proteção de dados proibiu o uso de Chromebooks e do Google Workspace em escolas do município de Helsingør em 2022. A decisão se baseou na avaliação de que os dados dos estudantes foram transferidos para os EUA sem as devidas garantias de proteção exigidas pela lei europeia.
Já os Países Baixos impuseram restrições ao uso do navegador Chrome e do ChromeOS no sistema educacional em 2022. O Ministério da Educação holandês exigiu que as escolas desativassem serviços de personalização de anúncios e o uso do motor de busca do Google até que a empresa ajustasse suas políticas de conformidade com as normas locais de privacidade.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Funcionários mais conscientes de seus processos mentais usam a inteligência artificial de forma mais criativa, aponta estudo
Por Rafaela Zampolli, Valor – 01/02/2026
A IA generativa possui capacidade para impulsionar a criatividade dos funcionários, mas não são todos os profissionais que conseguem se beneficiar disso, aponta um novo estudo de Jackson Lu, Shuhua Sun, Zhuyi Angelina Li, Maw-Der Foo e Jing Zhou, publicado na Revista de Psicologia Aplicada (JAP) dos Estados Unidos.
Os resultados do levantamento indicam que funcionários com uma metacognição (capacidade de planejar, avaliar, monitorar e refinar seu próprio pensamento) mais apurada têm maior probabilidade de obter ganhos criativos com o uso das ferramentas de IA. Para chegar aos resultados, os pesquisadores realizaram um experimento de campo com 250 trabalhadores de uma empresa chinesa de consultoria tecnológica.
Ainda de acordo com os estudiosos, trabalhadores têm usado a inteligência artificial generativa, como o ChatGPT, para gerar ideias e acelerar projetos. Todavia, à medida que essas ferramentas se tornam mais poderosas, as organizações esperam que elas estimulem níveis mais altos de capacidade de inovação dos funcionários.
Apesar da expectativa, uma pesquisa recente da Gallup revelou que apenas 26% dos funcionários que utilizam a IA relatam melhorias em sua criatividade. Instigados com o resultado, os autores buscaram compreender as razões pelas quais alguns funcionários se beneficiam enquanto outros não.
Para avançar nas pesquisas, eles partiram de uma descoberta anterior sobre criatividade. Ellen Spoor, Sabine Sonnentag, Christian Dormann e Marieke Tooren constataram que os funcionários produzem ideias mais criativas quando têm recursos cognitivos suficientes na empresa, como acesso à informação, conhecimento e oportunidade de ajustar métodos, alternando entre tarefas complexas e simples para fazer pausas mentais.
“Informação e conhecimento são essenciais para a criatividade porque esta envolve fundamentalmente recombinar e sintetizar informações de maneiras novas e úteis”, destacam os autores em artigo publicado na HBR. Portanto, o uso da tecnologia pode aumentar a capacidade de inovação dos funcionários de duas maneiras: expandindo o conhecimento e liberando capacidade mental, constatam os pesquisadores.
Os estudiosos explicam ainda que quando a IA lida com tarefas como resumir textos e gerenciar dados, ela reduz a sobrecarga cognitiva dos funcionários, permitindo que eles redirecionem recursos para a resolução de problemas complexos.
Depois de comprovada a capacidade de influência da IA na criatividade, os autores procuraram compreender a diferença do impacto em cada um e descobriram que os indivíduos diferem, justamente, em razão da metacognição. Segundo eles, profissionais com forte metacognição refletem sobre as etapas para executar uma tarefa, o que os torna mais conscientes das suas lacunas de conhecimento e das lacunas dos robôs. Por outro lado, funcionários com baixa metacognição são mais propensos a aceitar a primeira resposta da IA.
Os pesquisadores também apresentaram dicas para os líderes ajudarem os funcionários a serem mais criativos:
Incentive-os a usar a IA para coletar informações, explorar perspectivas e delegar tarefas rotineiras, restaurando a capacidade cognitiva;
Estimule-os a tratar as sugestões da IA como ponto de partida, e não como respostas finais, para que eles investiguem lacunas e desafiem pressupostos;
Apresente exemplos de erros reais de IA, incentivando-os a antecipar, detectar e corrigir esses erros;
Projete fluxos de trabalho que posicionem a IA como uma parceira de pensamento, e não como um atalho.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link:https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B