Investigações federais sobre a Binance e a FTX colocam em evidência uma indústria cada vez mais centralizada
James Surowiecki – Fast Company Brasil – 06-04-2023
Tem sido um período difícil, em termos legais, para as maiores exchanges de criptomoedas do mundo. O fundador da FTX, Sam Bankman-Fried, foi indiciado por várias acusações, incluindo fraude, depois que sua corretora colapsou em novembro do ano passado, levando bilhões em ativos de clientes com ela.
Em fevereiro, a Comissão de Valores Mobiliários dos Estados Unidos (SEC) processou a Kraken por não registrar seu programa de staking – uma forma de obter renda passiva com investimentos em criptomoedas. A exchange rapidamente concordou em parar de oferecer o serviço e pagou uma multa de US$ 30 milhões para encerrar as acusações.
Se uma exchange falir, os clientes não terão a quem recorrer.
No início de março, a Coinbase (que havia acabado de chegar a um acordo de US$ 100 milhões em um processo movido por reguladores de Nova York) informou que a SEC a enviou uma “Wells Notice”, que é, em essência, uma carta informando que uma ação de fiscalização pode estar a caminho.
Por fim, na segunda-feira (03 de abril), a Comissão de Negociação de Futuros de Commodities (CFTC) entrou com um processo contra a maior exchange do setor, a Binance, alegando uma ampla gama de violações dos regulamentos de commodities dos EUA.
CENTRALIZAÇÃO
A queixa de 74 páginas emitida pela CFTC descreve a corretora como uma empresa que descumpre a legislação sempre que possível. A comissão alega que a Binance violou os regulamentos de análise de clientes e de lavagem de dinheiro; solicitou que investidores norte-americanos negociassem em sua plataforma, apesar de nunca ter sido registrada nos EUA como exchange; e negociou em sua própria plataforma por meio de centenas de contas controladas pelo CEO da empresa, Changpeng Zhao.
É de se imaginar que todas essas notícias seriam ruins para os negócios. Mas o que realmente chama a atenção é que isso não parece ter feito muita diferença.
Como um editorial do CoinDesk recentemente colocou, as criptomoedas foram projetadas com “o objetivo de capacitar os indivíduos a controlar seus próprios destinos na era digital, sem depender das estruturas governamentais e corporativas”. No entanto, a maioria das transações agora ocorre em exchanges centralizadas, como a Binance, que são estruturas altamente corporativas.
Elas são as guardiãs dos ativos em criptomoedas. Executam negociações e operam a plataforma onde ocorrem. E, se você acredita na CFTC (ou olha para o que aconteceu com a FTX), em alguns casos, elas podem até estar do outro lado da negociação. Chamar essas empresas de “exchanges” é, na verdade, um equívoco. Na melhor das hipóteses, são corretoras e operadoras, tudo em um só lugar.
QUESTÃO DE CONFIANÇA
A criptomoeda foi criada para permitir que os usuários possam manter seus próprios ativos digitais em carteiras virtuais e negociar diretamente entre si em exchanges descentralizadas, com negociações registradas no blockchain.
No entanto, a maioria dos investidores e negociadores têm preferido as exchanges centralizadas. É fácil entender por quê. Elas são muito mais fáceis de usar para iniciantes. São os únicos lugares onde você pode trocar criptomoedas por dinheiro emitido por governos e bancos centrais, como o dólar, de forma confiável. E, como têm muitos clientes, é mais fácil encontrar um comprador ou vendedor e negociar a um preço justo.
a maioria das transações agora ocorre em exchanges centralizadas, que são estruturas altamente corporativas.
Como resultado, muitos investidores têm depositado sua confiança nessas empresas, acreditando que elas sempre executam transações com a melhor taxa, separam seus ativos dos da empresa, e que mantêm capital suficiente em caixa – apesar de serem pouco regulamentadas.
Além disso, como vimos com a FTX, se elas não estiverem fazendo tudo isso – ou se simplesmente administrarem mal seus negócios e acabarem falindo – você não terá como recorrer. O que, como também vimos com a FTX, é uma surpresa para muitos clientes.
Isso cria uma situação peculiar no universo das criptomoedas. A maioria dos investidores acaba confiando seus ativos a grandes corporações, que se parecem com instituições financeiras tradicionais, mas que têm muito menos supervisão e regulamentação.
É claro que a Binance e todas as outras exchanges insistem que estão fazendo negócios de forma honesta e que protegem os ativos de seus clientes. E talvez isso seja verdade. Mas a única garantia que temos é a palavra deles.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BrKMDzP2KP52ExU8rOIB3s(14) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
À medida que governos do mundo inteiro avançam com leis para aumentar a regulação das “big techs” e criam mecanismos para que gigantes de tecnologia remunerem veículos de notícias, o Google ameaça retirar links de veículos de imprensa de suas plataformas se for obrigado a pagar para usar o conteúdo de notícias.
É o mesmo Google que há cerca de três anos anunciou que investiria US$ 1 bilhão para parcerias de apoio ao jornalismo e que fez acordos com veículos da Austrália, após uma lei pioneira sobre o tema ter entrado em vigor há dois anos. Sundar Pichai, CEO do Google, afirmou em 2020: “Sempre valorizei o jornalismo de qualidade e acreditei que uma indústria de notícias vibrante é fundamental para o funcionamento de uma sociedade democrática”.
Pichai em três anos deixou de acreditar na democracia ou os melhores dias do Google ficaram no passado e ele caminha para se tornar uma empresa decadente? A resposta é complexa e passa por problemas internos do Google, pelo estilo de gestão do CEO e até pela oportunidade de sensibilizar políticos.
Demissões, o fim da yoga e sushi de graça
Fato é que Google está ficando para trás. Ter sido ultrapassado pelo ChatGPT e a Microsoft na corrida da inteligência artificial é o mais recente exemplo deste novo cenário, mas não é um caso isolado.
Com o YouTube a história é semelhante, apesar da posição dominante no mercado, a plataforma de vídeos do Google começou a perder espaço para o TikTok. Neste ano, o YouTube trocou de CEO após reportar pela primeira vez na história ter uma contração em sua receita. No último trimestre de 2022, o faturamento de publicidade do YouTube ficou em US$ 7,96 bilhões, uma queda de 8% em relação aos US$ 8,63 bilhões do ano anterior.
Mas o problema vai além de resultados ruins. O Google, famoso por oferecer aulas de yoga e sushi de graça aos funcionários, agora está se notabilizando por demitir sem qualquer sensibilidade.
Após cortar 12 mil colaboradores em janeiro, ou 6% de sua força de trabalho, em março a companhia deu indicações aos ex-funcionários, que foram demitidos durante a licença maternidade e médica, que eles não seriam pagos por todo o tempo restante (o caso aconteceu nos EUA, onde a lei não exige, mas muitas empresas pagam).
Por sinal, a maneira que os cortes foram feitos no Google são um exemplo de como não fazer demissões. Com a falta de sensibilidade que está se tornando uma marca do Vale do Silício, milhares de pessoas foram comunicadas do desligamento por e-mail ou quando passaram seus crachás e não puderam entrar no escritório.
Nesta semana, o Google anunciou novos cortes de custos. Agora, irá restringir a troca de laptops, diminuir serviços oferecidos aos funcionários e cortará até suprimentos do escritório. Adeus grampeadores, esqueça os sushis e almoços de chefs badalados.
Crise ou jogo de cena
Mas não se deixe levar pelas notícias negativas. O que o Google vê como “crise”, na verdade significa crescer em ritmo mais lento. O Google (na verdade a Alphabet, holding que inclui o Google) gerou quase US$ 60 bilhões de lucro líquido em 2022, uma desaceleração em comparação aos US$ 76 bilhões de lucro líquido em 2021, quando todos estavam online com a pandemia.
O cenário é menos ruim se considerarmos que neste ano as ações do Google já subiram mais de 18% com a perspectiva de melhora em 2024. Afinal, a receita da empresa foi de US$ 279,8 bilhões no ano passado, quase R$ 1,4 trilhão (sim, trilhão) e deve subir neste ano.
Em um momento em que o Google está sendo pressionado no mundo inteiro por governos e órgãos reguladores para assumir as responsabilidades de ter o monopólio do mercado de mídia digital, se colocar em um cenário negativo é um trunfo para a gigante de tecnologia, mesmo que às custas de seus colaboradores.
É importante lembrar que o problema do Google não são as despesas, mas sim ter se tornado tão grande e poderoso que perdeu o rumo. Seguir crescendo sem limites é a meta final. Mas como qualquer investidor sabe, nenhuma árvore cresce até o céu.
Problemas profundos na empresa
Em junho de 2021, quando o Google batia recordes de faturamento e lucro, 15 executivos e ex-executivos do Google afirmaram em uma reportagem do “New York Times” que estavam preocupados com os rumos da companhia.
Um dos problemas apontados foi o estilo de liderança de Pichai, o afável e discreto CEO da empresa, que antes de entrar no Google trabalhou como consultor na McKinsey.
Para os executivos entrevistados, o Google estava sofrendo de muitas das armadilhas de uma empresa grande e madura — uma burocracia paralisante, um viés para a inação e uma fixação sobre como era percebido pelo público.
Os executivos, alguns dos quais interagiam regularmente com Pichai, disseram que o Google não agiu rapidamente nas principais mudanças de negócios e de pessoal porque ele (Pichai) refletiu sobre as decisões e adiou as ações. Eles disseram que o Google continuou a ser abalado por lutas culturais no local de trabalho e que as tentativas de Pichai de reduzir os conflitos tiveram o efeito oposto — permitiu que os problemas se agravassem enquanto ele evitava posições duras e às vezes impopulares.
Ou seja, a maneira esquizofrênica com que o Google trata o mercado de notícias, as demissões desordenadas e tantas ações conflitantes são apenas a face mais visível de um conjunto de fatores que criou um monopólio cada vez menos ineficiente, mas tão poderoso que não pode de fato ser desafiado pelos concorrentes.
ChatGPT por enquanto não oferece risco
Sim, o ChatGPT é um fenômeno, mas as chances da ferramenta roubar usuários do Google massivamente, e principalmente, faturar US$ 279,8 bilhões por ano com publicidade como a gigante de buscas, ainda é um cenário distante. O Google lançou o Bard, um concorrente do ChatGPT. Pode não ser tão bom quanto, mas tamanho e base de usuários resolvem (ou o Microsoft Teams não seria a plataforma líder do segmento).
Para os acionistas do Google há mais uma boa notícia, a solução para o problema já existe e foi usada diversas vezes no passado. O Google deveria ser dividido em várias novas empresas. Fazer isso é não correr o risco de virar uma nova GE, que depois de reunir tantos negócios se tornou tão ineficiente que colapsou.
Empresas menores são forçadas a se tornarem mais competitivas e criam novas oportunidades no mercado. O Waze é um exemplo. O aplicativo que revolucionou o mercado de navegação, hoje é tratado como puxadinho do Google Maps.
Hoje, o YouTube nem precisa se preocupar muito com eficiência, já que o Google tem domínio absoluto do mercado de publicidade e pode priorizar suas próprias plataformas. Entre colocar uma campanha no YouTube ou em um parceiro, o natural é que o Google beneficie seus próprios negócios.
Este é outro problema. As principais ferramentas de compra e venda de publicidade digital são do Google.
Raposa cuidando do galinheiro
A Comissão Europeia puniu o Google em 2017 com uma multa de US$ 2,8 bilhões por direcionar injustamente os visitantes para seu próprio serviço de compras, o Google Shopping, em detrimento dos concorrentes.
O Google também controla o Chrome e o Android, ou seja, controla o maior navegador do planeta e o sistema operacional mais popular do mundo. Então, quando uma empresa digital ouve: você tem de escapar do Google, a questão é: de que jeito? Já que a plataforma controla computadores e celulares.
O Departamento de Justiça dos Estados Unidos no início do ano abriu um processo buscando o desmembramento do negócio de compra e venda de publicidade digital do Google. O processo alega que o Google abusa do poder de monopólio na indústria de tecnologia de anúncios, prejudicando editores da web e anunciantes que tentam usar produtos concorrentes.
O próprio Google fica devendo em inovação em novos negócios. Nos recentes cortes, a Area 120, uma incubadora de novos negócios dentro do grupo, foi duramente afetada, com a maior parte do time desligado. Balões com internet, iniciativas em saúde, carros autônomos, foram projetos caros do Google, mas com poucos resultados financeiros práticos.
Surpreendentemente, a China parece estar à frente dos Estados Unidos neste sentido. Após pressão do governo o Alibaba, espécie de Google chinês, revelou na semana passada que iria ser dividido em seis empresas, com algumas inclusive sendo listadas. No dia do anúncio, as ações subiram mais de 14%. A avaliação geral é de que os problemas de regulação iriam diminuir e as chances do Alibaba voltar a inovar cresceriam.
Por que o YouTube deveria ser independente
O YouTube é um exemplo de negócio que deveria ser dividido. Mais consumido que a Netflix no Brasil, Estados Unidos e diversos países, no ano passado a plataforma de vídeos do Google faturou mais de US$ 29 bilhões. É apenas 10% do faturamento do Google, mas o mercado de publicidade em TV no mundo inteiro equivale a US$ 140 bilhões, segundo dados da Ampére.
Como apontou a “The Economist” no mês passado, o YouTube tem potencial para valer mais que a Netflix, hoje avaliada em US$ 154 bilhões.
O YouTube é um lembrete do tamanho do domínio do Google. Difícil para qualquer empresa (às exceções de Apple e Amazon) concorrerem com a plataforma. O YouTube gastará US$ 14 bilhões em sete anos apenas para ter o direito de transmitir jogos de futebol americano aos domingos.
Assim como o YouTube, diversos negócios do Google estão sendo subutilizados e deixaram de inovar, mas principalmente, impedem a sobrevivência de concorrentes e o surgimento de novos negócios. Dividir o Google seria um passo importante para o CEO da companhia voltar a defender o jornalismo de qualidade e uma indústria de notícias vibrante. Como Pichai mesmo disse, isso é fundamental para o funcionamento de uma sociedade democrática.
PS: Já participei de projetos de apoio ao jornalismo patrocinados por Google e Meta
Guilherme Ravache é consultor e atua em projetos de jornalismo digital no Brasil e exterior. Após passagens por grandes veículos de imprensa no país, atuou no marketing de empresas multinacionais. Nos últimos anos, especializou-se na cobertura do mercado de mídia
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Em jogos como o xadrez, nenhum humano pode vencer um computador. O que acontece se a mesma coisa ocorrer na arte, na política e até na religião?
Yuval Harari Tristan Harris Aza Raskin* – Folha/The New York Times 28.mar.2023
Imagine que, ao embarcar num avião, metade dos engenheiros que o construíram lhe diga que há 10% de chance de ele cair, matando você e todos os outros a bordo. Você ainda embarcaria?
Em 2022, mais de 700 acadêmicos e pesquisadores ligados às principais empresas de inteligência artificial foram entrevistados sobre o risco futuro da IA. A metade dos entrevistados afirmou que havia 10% ou mais de chance de extinção humana (ou perda de poder igualmente permanente e severa) por futuros sistemas de IA. As empresas de tecnologia que constroem os grandes modelos de linguagem de hoje estão envolvidas numa corrida para colocar toda a humanidade nesse avião.
As empresas farmacêuticas não podem vender novos medicamentos às pessoas sem antes submeterem seus produtos a rigorosas verificações de segurança. Os laboratórios de biotecnologia não podem lançar novos vírus na esfera pública para impressionar os acionistas com sua magia. Da mesma forma, os sistemas de IA com o poder do GPT-4 e além não devem se envolver na vida de bilhões de pessoas num ritmo mais rápido do que as culturas podem absorvê-los com segurança. Uma corrida para dominar o mercado não deve definir a velocidade de implantação da tecnologia mais importante da humanidade. Devemos nos movimentar na velocidade que nos permita fazer isso direito.
O espectro da IA assombra a humanidade desde meados do século 20, mas até recentemente permaneceu uma perspectiva distante, algo que pertence mais à ficção científica do que a sérios debates científicos e políticos. É difícil para nossa mente humana compreender as novas capacidades do GPT-4 e ferramentas semelhantes, e é ainda mais difícil compreender a velocidade exponencial em que essas ferramentas estão desenvolvendo capacidades ainda mais avançadas e poderosas. Mas a maioria das habilidades-chave se resume a uma coisa: a capacidade de manipular e gerar linguagem, seja com palavras, sons ou imagens.
“No princípio era o verbo.” A linguagem é o sistema operacional da cultura humana. Da linguagem emergem mitos e leis, deuses e dinheiro, arte e ciência, amizades e nações –até mesmo códigos de computador. O novo domínio da linguagem da IA significa que agora ela pode hackear e manipular o sistema operacional da civilização. Ao obter o domínio da linguagem, a IA está apreendendo a chave mestra da civilização, de cofres de banco a sepulcros sagrados.
O que significaria para os humanos viver num mundo em que uma grande porcentagem de histórias, melodias, imagens, leis, políticas e ferramentas são moldadas por uma inteligência não humana, que sabe explorar com eficiência sobre-humana as fraquezas, preconceitos e vícios da mente humana –enquanto também sabe formar relacionamentos íntimos com os seres humanos? Em jogos como o xadrez, nenhum humano pode esperar vencer um computador. O que acontece quando a mesma coisa ocorre na arte, na política e até na religião?
A IA poderia consumir rapidamente toda a cultura humana –tudo o que produzimos ao longo de milhares de anos–, digeri-la e começar a produzir uma enxurrada de novos artefatos culturais. Não apenas redações escolares, mas também discursos políticos, manifestos ideológicos e até livros sagrados para novos cultos. Em 2028, a corrida presidencial dos Estados Unidos poderá não mais ser conduzida por humanos.
Os humanos muitas vezes não têm acesso direto à realidade. Somos encapsulados pela cultura, experimentando a realidade através de um prisma cultural. Nossas visões políticas são moldadas por relatos de jornalistas e anedotas de amigos. Nossas preferências sexuais são ajustadas pela arte e pela religião. Esse casulo cultural foi até agora tecido por outros humanos. Como será vivenciar a realidade através de um prisma produzido por uma inteligência não humana?
Há milhares de anos, nós, humanos, vivemos dentro dos sonhos de outros humanos. Adoramos deuses, perseguimos ideais de beleza e dedicamos nossas vidas a causas que se originaram na imaginação de algum profeta, poeta ou político. Em breve, também nos encontraremos vivendo dentro das alucinações da inteligência não-humana.
A franquia “Exterminador do Futuro” mostrava robôs correndo pelas ruas e atirando nas pessoas. “Matrix” supunha que, para ter o controle total da sociedade humana, a IA teria que primeiro obter o controle físico de nossos cérebros e conectá-los diretamente a uma rede de computadores. Na verdade, porém, simplesmente por dominar a linguagem, a IA teria tudo de que precisa para nos conter num mundo de ilusões semelhante a Matrix, sem atirar em ninguém ou implantar chips em nossos cérebros. Se algum tiro for necessário, a IA pode fazer os humanos puxarem o gatilho, apenas nos contando a história certa.
O espectro de estar preso num mundo de ilusões assombra a humanidade há muito mais tempo do que o espectro da IA. Logo estaremos finalmente cara a cara com o demônio de Descartes, com a caverna de Platão, com a Maya budista. Uma cortina de ilusões pode descer sobre toda a humanidade, e talvez nunca mais possamos arrancá-la –ou mesmo perceber que ela está lá.
A rede social foi o “primeiro contato” entre a IA e a humanidade, e a humanidade perdeu. O “primeiro contato” nos deu o gosto amargo do que está por vir. Nas redes sociais, a IA primitiva foi usada não para criar conteúdo, mas para selecionar conteúdo gerado por usuários. A IA por trás de nossos feeds de notícias continua escolhendo quais palavras, sons e imagens atingem nossas retinas e tímpanos, com base na seleção daquelas que terão mais viralidade, mais reação e mais engajamento.
Embora muito primitiva, a IA por trás da rede social foi suficiente para criar uma cortina de ilusões que aumentou a polarização social, minou nossa saúde mental e destruiu a democracia. Milhões de pessoas confundiram essas ilusões com a realidade. Os Estados Unidos têm a melhor tecnologia de informação da história, mas os cidadãos americanos não podem mais concordar sobre quem ganhou as eleições. Embora todos já estejam cientes do lado negativo da rede social, ele não foi abordado, porque muitas de nossas instituições sociais, econômicas e políticas se envolveram com ele.
Modelos de linguagem grandes são nosso “segundo contato” com a IA. Não podemos nos dar ao luxo de perder novamente. Mas com base em quê devemos acreditar que a humanidade é capaz de usar essas novas formas de IA em nosso benefício? Se continuarmos como sempre, as novas capacidades da IA serão mais uma vez usadas para obter lucro e poder, mesmo que inadvertidamente destruam os fundamentos de nossa sociedade.
A IA realmente tem o potencial de nos ajudar a derrotar o câncer, descobrir medicamentos que salvam vidas e inventar soluções para nossas crises climáticas e energéticas. Existem inúmeros outros benefícios que nem podemos imaginar. Mas não importa a altura do arranha-céu de benefícios que a IA possa acumular se o alicerce desmoronar.
A hora de contar com a IA é antes que nossa política, nossa economia e nossa vida diária se tornem dependentes dela. A democracia é uma conversa, a conversa depende da linguagem e, quando a própria linguagem é hackeada, a conversa é interrompida e a democracia se torna insustentável. Se esperarmos que o caos se instale, será tarde demais para remediá-lo.
Mas há uma pergunta que pode pairar em nossa mente: “Se não formos o mais rápido possível, o Ocidente não correrá o risco de perder para a China?” Não. A implantação e o entrosamento descontrolado da IA na sociedade, libertando poderes semidivinos dissociados de responsabilidade, poderão ser de fato a razão que leve o Ocidente a perder para a China.
Ainda podemos escolher qual futuro queremos com a IA. Quando poderes semidivinos são combinados com responsabilidade e controle proporcionais, podemos perceber os benefícios que a IA promete.
Nós convocamos uma inteligência alienígena. Não sabemos muito sobre ela, exceto que é extremamente poderosa, nos oferece presentes maravilhosos, mas também poderia sabotar as bases de nossa civilização. Conclamamos os líderes mundiais a reagirem a este momento no nível do desafio que ele representa. O primeiro passo é ganhar tempo para atualizar nossas instituições do século 19 para um mundo pós-IA e aprender a dominar a IA antes que ela nos domine.
Harari é historiador e fundador da empresa de impacto social Sapienship. Harris e Raskin são os fundadores do Centro para Tecnologia Humana. Tradução de Luiz Roberto M. Gonçalves.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Batizado de Garmi, o aparelho usa tecnologias avançadas como robótica, TI e tecnologia 3D aplicadas para geriatria, gerontologia e enfermagem
Por O Globo/AFP — Berlim – 19/03/2023
O humanoide de cor branca “Garmi” não parece muito diferente de um robô típico – ele fica em uma plataforma com rodas e é equipado com uma tela preta na qual dois círculos azuis atuam como os olhos estão ligados.
Mas o médico alemão aposentado Guenter Steinebach, 78 anos, disse:
— Para mim, este robô é um sonho.
A Garmi não só é capaz de realizar diagnósticos em pacientes, como também pode fornecer cuidados e tratamento para eles. Ou pelo menos, esse é o plano. Garmi é um produto de um novo setor chamado geriatrônica, uma disciplina que explora tecnologias avançadas como robótica, TI e tecnologia 3D para geriatria, gerontologia e enfermagem.
Cerca de uma dúzia de cientistas construíram o Garmi com a ajuda de médicos como Steinebach no Instituto de Robótica e Inteligência de Máquinas de Munique.
País enfrenta falta de profissionais de saúde
Parte da Universidade Técnica de Munique, o instituto estabeleceu sua unidade especializada em geriatrônica em Garmisch-Partenkirchen, uma estação de esqui que abriga uma das maiores proporções de idosos da Alemanha. O país mais populoso da Europa é, ele próprio, uma das sociedades que mais envelhecem no mundo.
Com o número de pessoas que precisam de cuidados crescendo rapidamente e cerca de 670.000 postos de cuidadores não preenchidos na Alemanha até 2050, os pesquisadores estão correndo para conceber robôs que possam assumir algumas das tarefas realizadas hoje por enfermeiras, cuidadores e médicos.
— Temos caixas eletrônicos onde podemos sacar dinheiro hoje. Podemos imaginar que um dia, com base no mesmo modelo, as pessoas possam fazer seus exames médicos em uma espécie de centro tecnológico — disse Abdeldjallil Naceri, de 43 anos, principal cientista do laboratório.
Os médicos poderiam então avaliar os resultados do diagnóstico do robô à distância, algo que poderia ser particularmente valioso para pessoas que vivem em comunidades remotas.
Alternativamente, a máquina poderia oferecer um serviço mais personalizado em casa ou em uma casa de repouso – servindo refeições, abrindo uma garrafa de água, pedindo ajuda em caso de queda ou organizando uma videochamada com familiares e amigos.
‘Precisamos chegar lá’
No laboratório Garmisch, Steinebach sentou-se a uma mesa equipada com três telas e um joystick enquanto se preparava para testar o progresso do robô. Do outro lado da sala, um pesquisador designado como modelo de teste ocupou seu lugar em frente a Garmi, que coloca um estetoscópio em seu peito — ação dirigida por Steinebach à distância por meio do controle remoto. Os dados médicos aparecem imediatamente na tela do médico.
— Imagine se eu tivesse isso quando comecei — disse Steinebach, enquanto movia o joystick.
Além do médico aposentado, outros profissionais de saúde também visitam o laboratório regularmente para oferecer suas ideias e feedback sobre o robô.
— É como uma criança de três anos. Temos que ensinar tudo — disse Naceri.
Ninguém sabe quando o Garmi estará pronto em escala comercial. Mas Naceri está convencido de que “temos que chegar lá, as estatísticas são claras de que é urgente”.
— A partir de 2030, devemos ser capazes de integrar esse tipo de tecnologia em nossa sociedade — afirmou Naceri.
Questão de confiança
E se for realmente implantado um dia, os residentes da casa de repouso Sankt Vinzenz em Garmisch, um parceiro do projeto, provavelmente verão Garmi pelos corredores. Só de pensar nisso, a senhora Rohrer, uma moradora de 74 anos da casa, sorriu.
— Existem coisas que um robô pode fazer, por exemplo, servir uma bebida ou trazer refeições — disse ela enquanto Eva Pioskowik, a diretora da casa, fazia suas unhas.
Pioskowik, que luta diariamente contra a falta de pessoal, disse que não esperava que o robô tomasse o lugar dos profissionais de saúde.
— Mas isso pode permitir que nossa equipe passe um pouco mais de tempo com os residentes — disse ela.
Para a equipe de Naceri, um dos grandes desafios não é tecnológico, médico ou financeiro. Em vez disso, resta saber se a maioria dos pacientes aceitará o robô.
— Eles precisam confiar no robô — disse ele. — Eles precisam ser capazes de usá-lo como usamos um smartphone hoje.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Durante a apresentação da Epic Games na Game Developers Conference, um dos maiores eventos de jogos e tecnologia do mundo, em São Francisco, a atriz alemã Melina Juergen subiu ao palco e franziu a testa, como se estivesse com raiva. Isso causou agitação entre o público de desenvolvedores no Yerba Buena Center, e em toda a internet, quando milhões de usuários assistiram ao vídeo em seus feeds.
Toda a comoção em torno de sua expressão, no entanto, tinha a ver com o que estava sendo apresentado. Juergen, conhecida por interpretar Senua na série de videogames Hellblade, estava ajudando a Epic Games a demonstrar uma nova tecnologia, atualmente disponível em versão beta privada e com lançamento previsto para o terceiro trimestre.
Chamada MetaHuman Animator, ela pode pegar um vídeo bruto de um iPhone e criar um modelo tridimensional de um rosto, capaz de rir e expressar medo e raiva. Mas também pode prever todas as outras expressões faciais, com uma precisão perturbadora. O modelo pode ser usado para dar vida ao avatar de um jogador humano ou a um NPC (personagem não jogável) controlado por IA. Ou mesmo vários deles.
Na conferência, a Epic Games revelou uma série de avanços. Mas o MetaHuman Animator foi o centro das atenções. Para demonstrar a tecnologia, os executivos convidaram Juergen para subir ao palco.
Ela então começou a fazer várias expressões – primeiro fez cara de medo, depois de raiva e, por fim, um olhar confuso e melancólico. Acima, em um telão enorme, o público assistia a uma projeção da interface do aplicativo no iPhone enquanto registrava suas expressões.
Em questão de segundos, converteu seu rosto em uma máscara cinza de polígonos.
Depois de mexer um pouco no aplicativo, o vice-presidente de tecnologia humana digital da Epic Games (que nome incrível para um cargo!) revelou o resultado: uma cópia virtual de Juergen, incrivelmente detalhada e com a iluminação própria de um estúdio. Então, demonstrou como poderia aplicar as expressões a uma variedade de personagens diferentes – não apenas a um modelado a partir dela.
A tecnologia será uma benção para cineastas independentes e desenvolvedores de jogos, ou para qualquer pessoa com muita imaginação, mas que não têm os recursos para contratar atores em trajes de captura de movimento.
Hoje, para criar personagens em CGI de forma rápida e barata, é necessário sacrificar a qualidade – nada de movimentos fluidos ou olhares expressivos. No palco, a versão digital da atriz tinha olhos que pareciam vivos e seus músculos faciais se moviam. Esses personagens de IA podem permitir que criadores com orçamentos limitados atinjam níveis de realismo antes restritos a sucessos de bilheteria.
Mas a demonstração também provocou frio na barriga em alguns espectadores. Não por seu hiperrealismo, mas pela forma, rapidez e a facilidade com que foi criada. Pasme! Um ser humano realista, criado em menos de um minuto usando um modelo de iPhone de três anos atrás!
Já vimos esse filme antes.
Desenvolvedores inventam algo revolucionário, tornam-no rápido e gratuito e sua criação se espalha pelo mundo. Os usuários então começam a usá-lo de novas formas, por vezes com más intenções. E os algoritmos elevam esses usos a níveis anteriormente inimagináveis.
Basta relembrar alguns casos recentes: uma rede social foi criada e, 10 anos depois, estava sendo usada para alimentar conflitos em Mianmar. Algoritmos de sugestão de vídeo em plataformas de streaming estão incitando ideologias e discursos fascistas. O tempo que leva para uma tecnologia ser totalmente deturpada está ficando cada vez mais curto.
Portanto, mesmo que a nova ferramenta de animação hiperrealista da Epic Games abra portas para novas formas de criatividade, também há a possibilidade muito real de que jogos gratuitos que utilizam inteligência artificial e seus metamundos, em breve, sejam distorcidos e corrompidos.
Talvez, no futuro, os usuários de aplicativos como o MetaHuman espalhem diferentes versões de humanos falsos pelo metaverso, criando um exército de spams que aplicam golpes ou propagam o ódio.
E é bem possível que apenas adolescentes descolados sejam capazes de distinguir os humanos reais dos falsos. O resto de nós não saberá se estamos realmente fazendo uma chamada de vídeo com nossos netos ou se estamos conversando com um chatbot.
Isso é o suficiente para deixar qualquer um deprimido. Mas não se preocupe, em breve, seu metahumano poderá ser capaz de sorrir por vocês dois.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Por Henry Kissinger, Eric Schmidt e Daniel Huttenlocher Estadão/Wall Street Journal 31/03/2023
A inteligência artificial generativa apresenta um desafio filosófico e prático numa escala não experimentada desde o início do Iluminismo
THE WALL STREET JOURNAL – Uma nova tecnologia propõe transformar o processo cognitivo humano, reorganizando-o de uma forma não vista desde a invenção da prensa de tipos móveis. A tecnologia que imprimiu a Bíblia de Gutenberg em 1455 tornou o pensamento humano abstrato comunicável de modo geral e com celeridade. Mas a atual nova tecnologia inverte esse processo. Enquanto a prensa de tipos móveis levou a uma profusão do pensamento humano moderno, a nova tecnologia alcança sua essência e formulação. No processo, cria uma lacuna entre o conhecimento humano e a compreensão humana. Se quisermos transitar de forma bem-sucedida por essa transformação, será necessário desenvolver novos conceitos do pensamento humano e da interação com as máquinas. Este é o desafio fundamental da Era da Inteligência Artificial.
A nova tecnologia é conhecida comointeligência artificial (IA) generativa; a sigla GPT refere-se a transformador generativo pré-treinado. OChatGPT, desenvolvido no laboratório de pesquisa daOpenAI, agora é capaz de conversar com humanos. Conforme suas capacidades aumentam, elas vão redefinir o conhecimento humano, acelerar mudanças no tecer da nossa realidade e reorganizar a política e a sociedade.
A IA generativa apresenta um desafio filosófico e prático numa escala não experimentada desde o início do Iluminismo. A prensa de tipos móveis permitiu que os estudiosos repetissem rapidamente as descobertas uns dos outros e as compartilhassem. Uma consolidação e propagação de informação sem precedentes gerou o método científico. O que era inacessível tornou-se o ponto de partida para acelerar a pesquisa. A interpretação medieval do mundo baseada na fé religiosa foi gradualmente enfraquecida. As profundezas do universo podiam ser exploradas até que novos limites da compreensão humana fossem alcançados.
A IA generativa abrirá caminhos igualmente revolucionários para a razão humana e novos horizontes para o conhecimento consolidado. Entretanto, há diferenças categóricas. O conhecimento do Iluminismo era alcançado de forma progressiva, passo a passo, com cada um desses passos sendo verificável e possível de ser ensinado. Os sistemas habilitados para IA começam de forma oposta. Eles podem armazenar e condensar uma quantidade enorme de informações existentes, no caso do ChatGPT, boa parte do material textual na internet, um grande número de livros e bilhões de outros itens. Ter esse volume de informação e sintetizá-lo está além da capacidade humana.
Métodos sofisticados de IA produzem resultados sem explicar por que ou como funciona seu processo. O computador com GPT funciona por meio de um comando dado por um ser humano. Recorrendo a aprendizado de máquina, responde em texto compreensível em segundos. Ele é capaz de fazer isso porque tem representações pré-geradas da quantidade enorme de dados com os quais foi treinado.
Como o processo pelo qual ele criou essas representações foi desenvolvido por aprendizado de máquina, que reflete padrões e conexões sobre as quantidades enormes de texto, as fontes exatas e as razões das características específicas de qualquer representação permanecem desconhecidas.
Por qual processo a aprendizado de máquina armazena seu conhecimento, condensa-o e o consulta também continua sendo uma incógnita. Independentemente de esse processo ser descoberto algum dia, o mistério associado ao aprendizado de máquina desafiará a cognição humana por um prazo indefinido.
As habilidades da IA não são estáticas, mas se expandem de modo exponencial à medida que a tecnologia avança. Recentemente, a complexidade dos modelos de IA vem dobrando em intervalos de poucos meses. Portanto, os sistemas de IA generativa têm capacidades que permanecem desconhecidas até mesmo para seus inventores. Com cada novo sistema de IA, eles estão desenvolvendo novas capacidades sem entender sua origem ou destino. Como consequência, nosso futuro agora tem um elemento completamente novo de mistério, risco e surpresa.
A ciência do Iluminismo reunia certezas, a nova IA gera um amontoado de ambiguidades. A ciência do século das luzes evoluiu tornando os mistérios explicáveis, delineando os limites do conhecimento humano e da compreensão humana conforme eles mudavam. As duas capacidades avançavam simultaneamente: a hipótese era a compreensão pronta para se tornar conhecimento; o raciocínio indutivo era o conhecimento se transformando em compreensão. Na era da IA, os enigmas são resolvidos por processos que continuam desconhecidos. Este paradoxo desnorteador revela mistérios, porém também os torna inexplicáveis. Inerentemente, a IA de grande complexidade promove o conhecimento humano, mas não a compreensão humana – um fenômeno contrário a quase toda a modernidade pós-iluminismo. Entretanto, ao mesmo tempo, a IA, quando associada à razão humana, é um meio de descoberta mais poderoso do que a razão humana sozinha.
A IA de grande complexidade promove o conhecimento humano, mas não a compreensão humana – um fenômeno contrário a quase toda a modernidade pós-iluminismo
A diferença fundamental entre o século das luzes e a era da IA não é, portanto, tecnológica, mas cognitiva. Depois do Iluminismo, a filosofia acompanhou a ciência. Novos dados confusos e muitas vezes conclusões contraintuitivas, dúvidas e inseguranças foram dissipados por explicações detalhadas da experiência humana. A IA generativa está igualmente preparada para criar uma nova forma de consciência humana. No entanto, até agora, a oportunidade existe em cores para as quais não temos um espectro e em direções para as quais não temos bússola. Nenhuma liderança política ou filosófica foi preparada para explicar e orientar essa nova relação entre homem e máquina, deixando a sociedade relativamente à deriva.
O ChatGPT é um exemplo do que é conhecido como um modelo amplo de linguagem (LLM), que pode ser usado para gerar texto semelhante ao criado por um humano. O GPT é um tipo de modelo que pode ser treinado automaticamente com quantidades enormes de texto sem a necessidade de supervisão humana. Os desenvolvedores do ChatGPT alimentaram o software com uma quantidade gigantesca de conteúdo textual do mundo digital. O poder computacional permite que o modelo grave padrões e conexões.
A capacidade dos modelos de linguagem ampla para gerar texto semelhante ao criado por um humano foi uma descoberta quase acidental. Esses modelos são treinados para serem capazes de prever a próxima palavra numa frase, o que é útil em tarefas como preenchimento automático para enviar mensagens de texto ou pesquisar na web. Entretanto, se constatou que esses modelos também têm a capacidade inesperada de criar parágrafos, artigos e, com o tempo, quem sabe até mesmo livros altamente bem estruturados.
Henry Kissinger foi secretário de Estado (1973-77) e conselheiro de segurança nacional da Casa Branca (1969-75) Foto: Jaime R. Carrero/Reuters
O ChatGPT é ainda mais especializado do que um modelo amplo de linguagem básico, recorrendo ao feedback dos humanos para ajustar o modelo de modo a gerar um texto de conversa que soe mais natural, assim como para tentar conter sua tendência para respostas inadequadas (um desafio considerável para modelos de linguagem ampla). O ChatGPT converte instantaneamente suas representações em respostas únicas. A impressão final para um humano familiarizado com a tecnologia é que a IA está relacionando compilações fixas de fatos com conceitos dinâmicos.
As respostas, declarações e observações do ChatGPT surgem sem uma explicação de onde vieram e sem um autor identificável. À primeira vista, o ChatGPT não tem nenhuma motivação ou preconceitos perceptíveis. Suas mensagens são complexas, mas seu trabalho é surpreendentemente rápido: em questão de segundos, ele consegue dar respostas que explicam de forma coerente um tema nada simples. Não são apenas respostas copiadas de um texto na memória do computador.
Elas são geradas outra vez por um processo que os humanos não são capazes de repetir. O software é capaz de incorporar hipóteses e deduções psicológicas não óbvias. Ele pode priorizar em meio a bilhões de dados e selecionar um conjunto único de 200 palavras que é mais relevante (ou parecerá mais relevante para um leitor humano).
Com suas próprias palavras, faz avaliações de probabilidade a respeito de resultados futuros, misturando informações de áreas distintas em uma resposta completa. Ele parece aceitar opiniões contrárias, apresentando-as como simultaneamente compatíveis. Imita outra escrita sem copiá-la. Apesar de o modelo não ter a capacidade de compreensão de um humano, o texto produzido por ele reflete uma essência subjacente da linguagem humana.
Perguntas
Pedimos ao próprio ChatGPT para explicar suas capacidades. Você é capaz de prever o futuro?
Não, ele respondeu. “Posso apenas dar informações e responder a perguntas com base nos dados com os quais fui treinado. Não tenho experiências pessoais ou consciência, por isso não sou capaz de fazer previsões sobre eventos futuros.”
Você pode fazer avaliações de probabilidade?
“Posso dar avaliações de probabilidade com base nos dados com os quais fui treinado. Por exemplo, se fui treinado com um grande conjunto de dados de padrões meteorológicos, posso ser capaz de avaliar a chance de um determinado tipo de clima ocorrer num lugar específico em um dia qualquer. Entretanto, é importante salientar que essas considerações de probabilidade são baseadas nos padrões e nas tendências dos dados e eles nem sempre refletem com exatidão os resultados do mundo real.”
Comando: escreva um breve ensaio seguindo a linha de pensamento de Henry Kissinger sobre o papel da inteligência artificial geral no controle internacional de armas.
A resposta começa: “Como estamos à beira de uma nova revolução tecnológica, a questão da inteligência artificial geral e seu papel no controle internacional de armas torna-se cada vez mais urgente. A inteligência artificial geral trará uma estabilidade sem precedentes à medida que os sistemas avançados assumirem o controle dos processos de tomada de decisão associados à dissuasão nuclear? Ou apresentará uma nova série de perigos, conforme o equilíbrio de poder global é alterado pelo desenvolvimento de máquinas altamente inteligentes?”
Fizemos perguntas ao ChatGPT relacionadas com temas de interesse atual, como o papel da Rússia na manutenção ou no enfraquecimento da estabilidade europeia. Ele deu respostas aparentemente fundamentadas e concisas em menos de um minuto, contrabalanceando informações contraditórias e respondendo detalhadamente sem parecer ter uma opinião.
Para o receptor, a IA generativa parece sobre-humana ou, no mínimo, bastante aprimorada cognitivamente. Para um usuário ingênuo, ela parece um bibliotecário erudito extremamente rápido e muito articulado, junto com um professor sábio. Ela facilita a síntese e o questionamento dos conhecimentos do mundo de forma bem mais eficaz do que qualquer relação tecnológica ou humana existente, e faz isso com uma abrangência única. Sua capacidade de abarcar inúmeras áreas de conhecimento e imitar diversos aspectos do pensamento humano a torna polímata num grau que excede as ambições de qualquer grupo de humanos altamente qualificados.
Todas essas qualidades encorajam a aceitação incondicional de tudo o que o GPT gera e uma espécie de atmosfera mágica para o modo como funciona. Entretanto, ao mesmo tempo, tem a capacidade de desinformar os usuários humanos com afirmações erradas e completamente inventadas.
Poucos dias depois do lançamento do ChatGPT, mais de um milhão de pessoas se cadastraram para fazer perguntas a ele. Centenas de empresas estão trabalhando com tecnologias generativas e o investimento está chegando aos montes, levando as descobertas para o campo comercial. As fortes razões comerciais terão, num futuro próximo, prioridade sobre a reflexão de longo prazo a respeito de suas implicações.
Esses modelos maiores custam caro para treinar – mais de US$ 1 bilhão por modelo. Depois de treinados, milhares de computadores trabalham 24 horas por dia para operá-los. Operar um modelo pré-treinado é barato ao se comparar com o treinamento em si e requer apenas capital, em vez de capital e conhecimentos de informática. Ainda assim, o pagamento para o uso exclusivo de um modelo de linguagem ampla permanece fora dos limites da maioria das empresas. É provável que os desenvolvedores desses modelos vendam assinaturas, desse modo, um único modelo atende as necessidades de milhares de indivíduos e empresas. Como consequência, o número de modelos amplos de linguagem na próxima década talvez seja relativamente limitado. A criação e o controle desses modelos estarão bastante concentrados, ainda que seu poder de ampliar os esforços e o pensamento humanos se torne muito mais difundido.
A IA generativa não será usada apenas para modelos amplos de linguagem, mas também para construir muitos tipos de modelos, e o método vai se tornar cada vez mais variado e arcano. Ela vai afetar muitas áreas da atividade humana, por exemplo, a educação e a biologia. Os diferentes modelos vão variar em seus pontos fortes e fracos. Suas capacidades – desde escrever piadas e pintar quadros até criar anticorpos – provavelmente continuarão a nos surpreender. Assim como o modelo de linguagem ampla desenvolveu um modelo de linguagem humana mais rico do que seus criadores previam, é possível que as IAs generativas em campos diversos aprendam mais do que as tarefas que lhe foram atribuídas exigem.
Continua após a publicidade
Questões filosóficas
Os grandes avanços nos problemas científicos tradicionais tornaram-se prováveis.
A importância a longo prazo da IA generativa transcende as implicações comerciais ou até mesmo avanços científicos não comerciais. Ela não está apenas gerando respostas, está dando origem a questões filosoficamente profundas. Irá suscitar diplomacia e estratégia de segurança. No entanto, nenhum dos criadores desta tecnologia está dando atenção aos problemas que ela mesma criará. O governo dos Estados Unidos tampouco abordou as mudanças e as transformações fundamentais que se aproximam.
A aparente perfeição das respostas do modelo levará a um excesso de confiança em relação ao texto criado por ele. Isso já é um problema, conhecido como “viés de automação”, com programas de computador bem menos sofisticados. É provável que o efeito seja particularmente intenso nos casos em que a IA gera textos à primeira vista confiáveis. Há grandes chances de o ChatGPT reforçar as predisposições atuais para a dependência de sistemas automatizados, reduzindo o fator humano.
A falta de referências bibliográficas nas respostas do ChatGPT dificulta discernir a verdade da desinformação. Já sabemos que pessoas mal-intencionadas estão impregnando a internet com um monte de “fatos” inventados, além de imagens e vídeos cada vez mais convincentes com o uso de deepfake, ou seja, no atual e futuro conjunto de dados para treinar o ChatGPT. Como ele foi projetado para responder perguntas, às vezes inventa fatos para dar uma resposta aparentemente coerente. Esse fenômeno é conhecido entre os pesquisadores de IA como “alucinação” ou “papagaio estocástico”, no qual uma IA junta frases que parecem fazer sentido para um leitor humano, mas não são baseadas em fatos. O que provoca esses erros e como controlá-los ainda não foi descoberto.
Pedimos ao ChatGPT para dar “seis referências sobre o pensamento de Henry Kissinger em relação à tecnologia”. Ele criou uma lista de artigos supostamente escritos por Kissinger. Todos tinham temáticas e saídas plausíveis, e um deles era um título verdadeiro (embora sua data de publicação estivesse errada). O restante eram invenções convincentes. Possivelmente, os supostos títulos aparecem como frases isoladas na imensidão de “fatos” do GPT, o que ainda não temos como descobrir.
Continua após a publicidade
O ChatGPT não tem de cara uma personalidade evidente, embora usuários vez por outra o façam agir como se fosse seu irmão gêmeo malvado. A falta de identificação de autoria pelo software torna mais difícil para os humanos intuir as tendências do ChatGPT do que julgar o ponto de vista político ou social de outro humano. Contudo, como a criação da máquina e os assuntos com os quais foi alimentada costumam ter uma origem humana, temos a predisposição de imaginar um raciocínio semelhante ao humano. Na verdade, a IA está envolvida num processo não humano análogo à cognição. Embora percebamos a IA generativa em termos humanos, seus erros não são erros de um ser humano; ela comete erros de uma forma diferente da inteligência baseada no reconhecimento de padrões. Os seres humanos não devem identificar essas falhas como erros. Seremos capazes de reconhecer seus preconceitos e imprecisões? Podemos desenvolver um modo de verificação capaz de questionar a veracidade e as limitações das respostas de um modelo, mesmo quando não sabemos as respostas previamente?
O conteúdo criado pela IA continua sendo difícil de se explicar. A verdade da ciência do Iluminismo era confiável porque cada passo dos processos experimentais replicáveis também era testado e, portanto, validado. A verdade da IA generativa terá de ser justificada por métodos completamente diferentes, e talvez nunca se torne absoluta do mesmo modo
Por isso o conteúdo criado pela IA continua sendo difícil de se explicar. A verdade da ciência do Iluminismo era confiável porque cada passo dos processos experimentais replicáveis também era testado e, portanto, validado. A verdade da IA generativa terá de ser justificada por métodos completamente diferentes, e talvez nunca se torne absoluta do mesmo modo. Enquanto tentarmos igualar nossa compreensão ao nosso conhecimento, teremos de nos perguntar constantemente: o que sobre a máquina ainda não nos foi revelado? Que conhecimento desconhecido ela está escondendo?
É provável que o raciocínio da IA generativa mude com o tempo, de certo modo como parte do treinamento do modelo. Ela vai se tornar uma versão acelerada do progresso científico tradicional, acrescentando adaptações aleatórias ao próprio processo de descoberta.
Fazer a mesma pergunta ao ChatGPT durante um período de tempo pode gerar respostas diferentes. Variações discretas na formulação da frase que parecem sem importância numa primeira leitura podem provocar resultados drasticamente diferentes quando repetidas. Atualmente, o ChatGPT está aprendendo com uma base de informações que termina em um ponto fixo no tempo. Em breve, seus desenvolvedores provavelmente vão permitir que ele receba novas contribuições, mais cedo ou mais tarde, consumindo um fluxo sem fim de dados em tempo real. Se o investimento continuar a aumentar, há chances de o modelo ser retreinado com uma frequência cada vez maior. Isso fará crescer sua aceitação e precisão, mas obrigará os usuários a permitir uma margem cada vez maior para mudanças rápidas. Aprender com os resultados variáveis da IA generativa, em vez de exclusivamente a partir de textos escritos por humanos, pode distorcer o conhecimento humano convencional de hoje.
Mesmo que os modelos de IA generativa se tornem completamente interpretáveis e precisos, eles ainda levariam a desafios inerentes à conduta humana. Os estudantes estão usando o ChatGPT para trapacear nas provas. A IA generativa poderia criar publicidades enviadas por e-mail que entopem as caixas de entrada e são indistinguíveis das mensagens de amigos ou de contatos profissionais. Vídeos e anúncios criados por IA generativa apresentando bandeiras de campanha falsas podem dificultar a distinção entre posições políticas. Sinais sofisticados de fraude – inclusive marcas d’água que indicam a presença de conteúdo gerado por IA, que a OpenAI está considerando – talvez não sejam suficientes, eles precisam ser apoiados por um ceticismo humano elevado.
Algumas consequências poderiam ser inerentes. Na medida em que usarmos menos nossos cérebros e mais as máquinas, os humanos talvez percam algumas habilidades. Nosso próprio pensamento crítico e as habilidades de escrita e desenho (dado o contexto de programas que criam imagens a partir de texto, como o Dall-E e o Stability.AI) talvez atrofiem. O impacto da IA generativa na educação poderia ser visto na queda da capacidade de futuros líderes de distinguir entre o que eles intuem e o que absorvem mecanicamente. Ou talvez leve a líderes que aprendem seus métodos de negociação com máquinas e sua estratégia militar com avanços da IA generativa, no lugar de humanos, nos terminais de computadores.
Capacidade de contestação
É importante que os seres humanos desenvolvam a confiança e a capacidade de contestar a produção dos sistemas de IA.
Os médicos temem que os modelos de aprendizagem profunda usados para avaliar imagens de exames para fins de diagnóstico, entre outras tarefas, possam substituir sua atuação. Em que momento os médicos não vão mais se sentir à vontade para questionar as respostas dadas por um software? Conforme as máquinas conquistam mais capacidades humanas, do reconhecimento de padrões à síntese racional e ao pensamento multidimensional, elas talvez comecem a competir com o trabalho humano na administração do Estado, no direito e nas táticas de negócios. Em algum momento, talvez surja algo semelhante à estratégia. Como os humanos podem interagir com a IA sem abrir mão de partes essenciais da estratégia para as máquinas? Com tais mudanças, o que acontece com as doutrinas aceitas?
É urgente que desenvolvamos uma dialética sofisticada que capacite as pessoas a contestar a interatividade da IA generativa, não apenas para justificar ou explicar suas respostas, mas para questioná-las. Com ceticismo aprimorado, devemos aprender a analisar de forma metódica a IA e avaliar se, e em que medida, suas respostas são dignas de confiança. Isso exigirá uma mitigação consciente dos nossos preconceitos inconscientes, um treinamento rigoroso e uma prática copiosa.
A dúvida permanece: podemos aprender, com rapidez suficiente, a contestar em vez de obedecer? Ou, no fim, seremos obrigados a nos submeter? O que consideramos erros são parte intencional do projeto? E se surgir um fator de má-fé na IA?
Outra tarefa fundamental é refletir quais questões devem ser reservadas ao pensamento humano e quais podem ser arriscadas com os sistemas automatizados. Entretanto, mesmo com o desenvolvimento de maior ceticismo e da habilidade de questionar, o ChatGPT prova que a IA generativa agora é um tema conhecido por quase todos. Temos que ser cuidadosos com o que lhe solicitamos.
Os computadores são necessários para controlar volumes crescentes de dados. No entanto, as limitações cognitivas talvez impeçam os humanos de descobrir verdades escondidas nas informações do mundo. O ChatGPT tem uma capacidade de análise que do ponto de vista qualitativo é diferente daquela da mente humana. O futuro, portanto, sugere uma colaboração não apenas com um tipo diferente de mecanismo técnico, porém com um tipo diferente de raciocínio – que pode ser racional sem ser sensato, confiável em um sentido, mas não em outro. É provável que essa dependência por si só precipite uma transformação na metacognição e na hermenêutica – a compreensão da compreensão – e nas percepções humanas do nosso papel e função.
O ChatGPT tem uma capacidade de análise que do ponto de vista qualitativo é diferente daquela da mente humana
Os sistemas de aprendizagem de máquina já superaram o conhecimento de qualquer ser humano. Em casos limitados, eles superaram o conhecimento da humanidade, transcendendo os limites do que consideramos cognoscível. Isso desencadeou uma revolução nas áreas onde tais avanços foram alcançados. A IA tem sido um divisor de águas no problema central da biologia de determinar a estrutura das proteínas e no qual matemáticos realizam comprovações, entre muitos outros.
À medida que os modelos passam de texto criado por um humano para contribuições mais abrangentes, há chances de as máquinas alterarem o tecer da própria realidade. A teoria quântica postula que a observação cria a realidade. Antes da avaliação, nenhum estado é fixo e nem se pode dizer que algo existe. Se isso for verdade, e se as observações das máquinas também puderem determinar a realidade – e considerando que as observações dos sistemas de IA são apresentadas com rapidez sobre-humana –, a velocidade da evolução da definição da realidade provavelmente vai acelerar. A dependência das máquinas determinará e, consequentemente, modificará o tecer da realidade, provocando um novo futuro que ainda não compreendemos e para o qual devemos preparar a análise e a liderança.
O uso da nova forma de inteligência acarretará algum nível de aceitação de seus efeitos em nossa autopercepção, percepção da realidade e da própria realidade. A forma de definir e identificar isso terá de ser abordada em todos os contextos concebíveis. Algumas áreas talvez prefiram se virar apenas com a mente humana – embora isso exija um certo grau de abnegação sem precedentes históricos e seja complicado pela competitividade dentro e entre as sociedades.
Conforme a tecnologia se torna mais compreensível para um número maior de pessoas, ela terá um impacto profundo nas relações internacionais. A não ser que a tecnologia para o conhecimento seja compartilhada universalmente, o imperialismo poderia focar em adquirir e monopolizar dados para ter acesso aos avanços mais recentes de IA. Os modelos podem produzir resultados diferentes dependendo dos dados reunidos. As evoluções contrastantes das sociedades talvez aumentem de acordo com as bases de conhecimento cada vez mais divergentes e, portanto, na percepção dos desafios.
Até agora, a maior parte da reflexão sobre essas questões presumiu a congruência entre os propósitos humanos e as estratégias das máquinas. Mas e se a interação entre a humanidade e a IA generativa não ocorrer dessa forma? E se um lado considerar as intenções do outro de má-fé?
A chegada de um instrumento incognoscível e aparentemente onisciente, capaz de alterar a realidade, pode desencadear um retorno da religiosidade mística. A possibilidade de obediência de um grupo a uma autoridade cujo raciocínio é em grande medida inacessível a seus súditos tem sido vista de tempos em tempos na história da humanidade, talvez de forma mais drástica e recente na submissão de populações inteiras sob o slogan de ideologias de ambos os lados do espectro político.
Uma terceira via de compreensão do mundo pode surgir, uma que não seja nem a razão humana, nem a fé. O que acontece com a democracia num mundo assim?
A chegada de um instrumento incognoscível e aparentemente onisciente, capaz de alterar a realidade, pode desencadear um retorno da religiosidade mística
É provável que a liderança se concentre nas mãos de menos pessoas e instituições que controlam o acesso ao número limitado de máquinas capazes de sintetizar a realidade com qualidade. Devido ao enorme custo de sua capacidade de processamento, as máquinas mais eficientes da sociedade talvez fiquem nas mãos de um pequeno grupo no país e sob o controle de algumas superpotências internacionais. Depois da fase de transição, os modelos mais antigos vão ficar mais baratos e uma disseminação do poder pela sociedade e entre os países talvez se inicie.
Uma liderança moral e estratégica revigorada será essencial. Sem princípios norteadores, a humanidade corre o risco de dominação ou anarquia, autoridade ilimitada ou liberdade niilista. A necessidade de relacionar grandes mudanças na sociedade com justificativas éticas e novas visões para o futuro surgirá num novo formato.
Se as máximas formuladas pelo ChatGPT não se traduzirem num esforço humano claramente identificável, uma alienação da sociedade e até mesmo uma revolução podem se tornar prováveis.
Sem fundamentos morais e intelectuais adequados, as máquinas usadas na governança poderiam controlar, em vez de ampliar, nossa humanidade e nos prender para sempre. Em um mundo como tal, a inteligência artificial pode amplificar a liberdade humana e superar desafios ilimitados.
Isso impõe certas necessidades para dominar o nosso futuro iminente. A confiança na IA exige melhorias em inúmeros graus de confiabilidade – na precisão e na segurança da máquina, no alinhamento dos objetivos da IA com as aspirações humanas e na responsabilização dos humanos que controlam a máquina. Mas, mesmo que os sistemas de IA se tornem mais confiáveis do ponto de vista técnico, os humanos ainda precisarão encontrar maneiras novas, simples e acessíveis de compreender e, de modo crítico, contestar as estruturas, os processos e a produção dos sistemas de IA.
Futuro
É necessário estabelecer parâmetros para o uso responsável da IA, com variações baseadas no tipo de tecnologia e do contexto da utilização. Modelos de linguagem como o ChatGPT exigem limites para seus resultados. O ChatGPT precisa saber e deixar claro o que não sabe e não pode expressar.
Os humanos terão de aprender novas limitações. Os problemas que apresentamos para um sistema de IA devem ser compreendidos num nível responsável de abstração e conclusividade. Normas culturais sólidas, mais do que imposições legais, serão necessárias para conter nossa confiança nas máquinas como árbitros da realidade. Reafirmaremos nossa humanidade garantindo que as máquinas continuem sendo objetos.
A educação, em particular, terá de se adaptar. Uma pedagogia dialética que utilize a IA generativa pode permitir uma aprendizagem mais rápida e individualizada do que era possível no passado. Os professores devem ensinar novas habilidades, inclusive modos responsáveis de diálogo entre homem e máquina. Basicamente, nossos sistemas educacionais e profissionais devem preservar uma visão dos humanos como criaturas morais, psicológicas e estratégicas singularmente capazes de realizar julgamentos abrangentes.
As máquinas vão evoluir muito mais depressa do que nossos genes, provocando deslocamentos internos e divergências internacionais. Precisamos responder com presteza compatível, em particular na filosofia e no conceitualismo, nacional e globalmente. A harmonia global precisará surgir, seja por percepção ou por catástrofe, como previu Immanuel Kant há três séculos.
Devemos incluir uma ressalva a essa previsão: o que acontece se essa tecnologia não puder ser completamente controlada? E se sempre houver formas de criar mentiras, imagens e vídeos falsos, e as pessoas nunca aprenderem a duvidar do que veem e ouvem? Somos ensinados desde o nascimento a acreditar no que vemos e ouvimos, e isso pode não ser mais válido como consequência da IA generativa. Mesmo que as grandes plataformas, por convenção e regulamentação, trabalhem arduamente para sinalizar e classificar conteúdos inadequados, sabemos que o conteúdo visto não pode ser “desvisto”. A capacidade de gerenciar e controlar completamente os conteúdos distribuídos pelo mundo é um problema grave e ainda a ser solucionado.
As respostas que o ChatGPT dá a essas questões são evocativas apenas no sentido de suscitarem mais dúvidas do que conclusões. Por ora, temos uma conquista nova e espetacular que se destaca como uma glória para a mente humana como a IA. Ainda não desenvolvemos uma destinação para ela. Conforme nos tornamos Homo technicus, temos o dever de definir o propósito da nossa espécie. Cabe a nós dar as verdadeiras respostas.
* Kissinger foi secretário de Estado (1973-77) e conselheiro de segurança nacional da Casa Branca (1969-75). Schmidt foi CEO da Google (2001-11) e presidente do conselho administrativo do Google e de sua empresa controladora, a Alphabet (2011-17). Huttenlocher é diretor da Faculdade de Computação Schwarzman, do Instituto de Tecnologia de Massachusetts. Os autores agradecem a Eleanor Runde por sua pesquisa.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
“Você precisa entender”, avisou-me antes de começar sua demonstração, “isso vai mudar tudo. Acho que representa a maior invenção da humanidade até hoje. É qualitativamente diferente –e será transformador.”
Então ele fez uma demonstração. E percebi que as palavras de Craig eram um eufemismo. Primeiro, ele pediu ao GPT-4 –que acaba de ser lançado ao público– para resumir o Planet Word e sua missão em 400 palavras. Ele fez isso perfeitamente, em alguns segundos.
Então ele pediu para fazer o mesmo em 200 palavras. Mais alguns segundos. Depois, pediu para fazer o mesmo em árabe. Com a mesma rapidez. Depois em mandarim. Mais dois segundos. Em seguida, novamente em inglês –mas na forma de um soneto de Shakespeare. Mais alguns segundos.
Então Craig pediu ao GPT-4 que escrevesse a mesma descrição em um verso abecedário –no qual a primeira linha começa com a letra A, a segunda com B e assim por diante, com todo o alfabeto. Ele fez isso, em inglês, com uma criatividade impressionante:
Mal consegui dormir naquela noite. Observar um sistema de IA produzir esse nível de originalidade em vários idiomas em apenas alguns segundos de cada vez… Bem, a primeira coisa que me veio à mente foi a observação do escritor de ficção científica Arthur C. Clarke de que “qualquer tecnologia suficientemente avançada é indistinguível de magia”.
A segunda coisa de que me lembrei foi um momento no início do filme “O Mágico de Oz“: a cena do tornado em que tudo e todos são erguidos num redemoinho, incluindo Dorothy e Totó, e depois varridos do mundo banal do Kansas para a reluzente e futurista Terra de Oz, onde tudo é colorido.
Estamos prestes a ser atingidos por um desses tornados. Este é um momento prometeico –um daqueles momentos na história em que são introduzidas certas ferramentas, formas de pensar ou fontes de energia tão diferentes e avançadas do que já existia que você não pode simplesmente mudar uma coisa, tem que mudar tudo. Ou seja, como você cria, como compete, como colabora, como trabalha, como aprende, como governa e, sim, como trapaceia, comete crimes e trava guerras.
Conhecemos as principais eras prometeicas dos últimos 600 anos: a invenção da imprensa, a revolução científica, a revolução agrícola combinada com a revolução industrial, a revolução da energia nuclear, a computação pessoal e a internet. E agora este momento.
Só que esse momento prometeico não é impulsionado por uma única invenção, mas sim por um superciclo tecnológico. É a nossa capacidade de sentir, digitalizar, processar, aprender, compartilhar e agir, cada vez mais com a ajuda da IA. Esse ciclo está sendo colocado em tudo –do carro à geladeira, do smartphone aos aviões de combate– e conduzindo cada vez mais processos todos os dias.
É por isso que chamo nossa era prometeica de “a era da aceleração, amplificação e democratização”. Nunca tantos humanos tiveram acesso a ferramentas mais baratas que amplificam seu poder num ritmo cada vez mais acelerado, conforme são difundidas na vida pessoal e profissional de cada vez mais pessoas ao mesmo tempo. E está acontecendo mais rápido do que a maioria esperava.
O uso potencial dessas ferramentas para resolver problemas aparentemente impossíveis é assombroso. Considere apenas um exemplo do qual a maioria das pessoas provavelmente nunca ouviu falar –a maneira como o DeepMind, um laboratório de IA de propriedade da Alphabet, controladora do Google, usou recentemente seu sistema AlphaFold AI para resolver um dos problemas mais complexos da ciência.
O problema é conhecido como “enovelamento de proteínas”. As proteínas são moléculas grandes e complexas, formadas por cadeias de aminoácidos.
Com isso, nossa compreensão do corpo humano deu um salto gigantesco. Como disse um artigo científico de 2021, “Unfolding AI’s Potential” [revelando o potencial da IA], publicado pelo Bipartisan Policy Center, o AlphaFold é uma metatecnologia: “As metatecnologias têm a capacidade de ajudar a encontrar padrões que auxiliam nas descobertas em praticamente todas as disciplinas”.
Estamos prontos? Não é o que parece. Estamos discutindo se devemos proibir os livros no despertar de uma tecnologia que pode resumir ou responder a perguntas sobre praticamente todos os livros.
Como tantas tecnologias digitais modernas baseadas em software e chips, a IA é de “uso duplo” –pode ser uma ferramenta ou uma arma.
A IA, por outro lado, está sendo promovida por empresas privadas com fins lucrativos. A pergunta que temos que fazer, argumentou Craig, é como governar um país, e um mundo, onde essas tecnologias de IA “podem ser armas ou ferramentas em todos os campos”, enquanto são controladas por empresas privadas e aumentam seu poder a cada dia? E fazê-lo de forma a não jogar fora o bebê junto com a água do banho?
Vamos precisar desenvolver o que chamo de “coalizões adaptativas complexas” –onde empresas, governos, empreendedores sociais, educadores, superpotências concorrentes e filósofos morais se reúnem para definir como obter o melhor e amortecer o pior da IA.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Este pode ser o início da segunda fase dos chatbots de inteligência artificial
Créditos capturas de tela/ OpenAI
Mark Sullivan – Fast Company Brasil – 29-03-2023
Acabamos de testemunhar o nascimento do que pode ser chamado de “app store” da OpenAI.
Não houve coletivas de imprensa ou anúncios sobre o lançamento, apenas alguns tuítes e um post no blog da empresa. Mas a modesta estreia do novo sistema de plugins do ChatGPT pode ser um marco na evolução da computação pessoal.
“Estamos diante de uma mudança na computação, e a IA generativa será a nova plataforma”, avalia Ben Bajarin, principal analista da empresa de pesquisa de mercado Creative Strategies. “Rapidamente, ela passará a ser usada por bilhões de usuários.”
A OpenAI divulgou em seu post o lançamento de um programa de plugins para “estudar seus desafios de uso, impacto, segurança e alinhamento com o mundo real”.
O chatbot de IA da OpenAI, ChatGPT, teve um aumento meteórico em popularidade. Ele alcançou mais de 100 milhões de usuários apenas dois meses após seu lançamento, em novembro de 2022, e conta com mais de 13 milhões de usuários ativos todos os dias.
TORNANDO OS CHATBOTS ÚTEIS
Sempre que um produto tecnológico gera tanto buzz e atrai tantos olhares, se torna uma plataforma. Marcas e desenvolvedores de aplicativos imediatamente querem fazer parte. E, por enquanto, algumas poucas empresas – como Instacart, Expedia, Shopify, Slack, OpenTable e Wolfram Alfa – tiveram a oportunidade de disponibilizar seus plugins no serviço ChatGPT Plus.
Mas a OpenAI pode se tornar muito mais do que apenas a plataforma do momento. E os plugins podem vir a desempenhar um papel importante no crescimento do ChatGPT, conectando o aplicativo ao conhecimento de terceiros.
“É interessante como esses plugins e, futuramente, outras implementações permitem que marcas, empresas e serviços integrem alguns de seus próprios modelos básicos, ou modelos de linguagem menores, ao ChatGPT”, diz Bajarin. “Esta pode se tornar uma tendência daqui para frente.”
Os plugins da OpenAI podem ser o início da segunda fase dos chatbots de IA. Com o ChatGPT, o Bard, do Google, e o Bing Chat, da Microsoft, vimos uma versão mais “pura”, treinada em petabytes de textos extraídos da web. Embora, hoje, sejam capazes de produzir respostas aparentemente confiáveis, também podem gerar informações completamente erradas.
Nessa segunda fase, eles passam a ter acesso a outros dados e funcionalidades e podem até começar a agir em nome de um usuário. Por exemplo, ao receber um prompt solicitando ajuda para planejar uma viagem, o ChatGTP pode se conectar ao modelo de IA ou ao banco de dados da Expedia para buscar preços e horários de voo. Pode, inclusive, reservar passagens.
Já o plugin da Wolfram Alpha oferece algo mais funcional: cálculos matemáticos e científicos que complementam os recursos e habilidades do ChatGPT.
“Apesar de ser excelente na geração de textos, o ChatGTP não consegue realizar cálculos, produzir sistematicamente dados corretos, etc.”, escreveu Stephen Wolfram em um post. “Mas quando está conectado ao plugin Wolfram, ele se torna capaz de fazer essas coisas.”
Como a própria empresa explica em sua postagem: “Embora não seja uma analogia perfeita, os plugins podem ser ‘olhos e ouvidos’ para modelos de linguagem, dando-lhes acesso a informações que são muito recentes, muito pessoais ou muito específicas para serem incluídas nos dados de treinamento.”
UM NOVO TIPO DE PLATAFORMA
O programa de plugins está sendo iniciado apenas quatro meses após o lançamento do ChatGPT. “É realmente incrível que eles tenham feito isso tão rápido”, destaca Aravind Srinivas, cofundador e CEO da Perplexity AI.
Ele trabalhou na OpenAI como cientista de pesquisa antes de lançar o Perplexity (mecanismo de busca conversacional desenvolvido, em parte, pelo ChatGPT) em janeiro.
os plugins podem vir a desempenhar um papel importante no crescimento do ChatGPT, conectando o aplicativo ao conhecimento de terceiros.
“Também é incrível vê-los avançar tão rápido na criação de um modelo de linguagem que pode realizar ações”, diz Srinivas. No futuro, será possível, por exemplo, tirar uma foto de um prato de comida e consultar um aplicativo de dieta para descobrir se os ingredientes são adequados.
Srinivas explica que muitos desenvolvedores serão atraídos pela possibilidade de combinar seus próprios plugins com outros no ChatGPT. Por exemplo, um usuário poderia usar, ao mesmo tempo, o plugin do aplicativo de dieta (para encontrar uma receita saudável), o da Wolfram Alfa (para calcular quanto de cada ingrediente comprar) e o do Instacart (para comprar os ingredientes).
EXPECTATIVAS PARA O FUTURO
Se os plugins de hoje são como “olhos e ouvidos” para o ChatGPT, não é difícil imaginar outro tipo de programa servindo como “mãos” ao modelo. É provável que uma
Crédito: Wikimedia Commons
empresa de casa inteligente decida desenvolver um plugin que permita controlar o ambiente – luzes, cortinas, ar-condicionado, portas etc.
Seria um modelo de linguagem natural com conhecimento dos dispositivos domésticos e dos hábitos e preferências do usuário, capaz de controlar coisas no mundo real. Isso poderia revolucionar nossas vidas. Não estaríamos tão distantes do futuro ficcional da série de livros “Odisseia no Espaço”, com sua inteligência artificial Hal 9000.
Se tivéssemos algo em nossos smartphones que soubesse tudo sobre nós – nossos pertences, amigos, familiares, hábitos e interesses –, que falasse de maneira natural e nos permitisse interagir com todos eles, será que precisaríamos de outros aplicativos?
“O impacto na comunidade de desenvolvedores pode representar uma grande transformação na computação”, aponta Srinivas. “É provavelmente a coisa mais interessante do momento e, se o uso realmente aumentar, os desenvolvedores não vão querer ficar de fora.”
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Saem as lives e os happy hours virtuais, entram os torneios esportivos e os eventos presenciais
Por Jacilio Saraiva — Para o Valor, 23/03/2023
CEOs de grandes empresas estão incluindo novas atividades entre as prioridades do dia a dia. Para se aproximar mais das equipes e diretorias em um período de expedientes híbridos, incertezas no mundo dos negócios e maior pressão por resultados, o alto comando lidera ações de “resgate de confiança”.
Com a movimentação, começam a ficar para trás recursos sintonizados com os anos pandêmicos – como lives de “café da manhã com o presidente” e videoconferências semanais ao lado das gerências – e entram no horizonte iniciativas de contato direto, como torneios esportivos e programas de “team building” (formação de times) com os funcionários.
De acordo com os executivos, além de uma maior integração entre departamentos, a ideia de montar um calendário para “chegar junto” visa comunicar, nas entrelinhas, estratégias de crescimento e gerar uma sensação de pertencimento à companhia, por meio de agendas em grupo.
Da parte dos funcionários, segundo relatos feitos ao Valor sob condição de anonimato, participar dos encontros com as chefias ajuda a entender melhor as perspectivas da empresa sobre o futuro. “Nessas ocasiões, as lideranças acabam ficando mais abertas a falar e ouvir feedbacks sobre decisões e projetos”, diz o gerente de uma companhia de bens de consumo, com vinte anos de profissão.
Na gigante de tecnologia Oracle, com 130 mil funcionários no mundo, sendo 2,5 mil no Brasil, a direção resolveu suar a camisa para garantir uma melhor conexão entre os empregados. A partir de abril, Alexandre Maioral, presidente da companhia no país, vai organizar um torneio de vôlei de praia com times mistos. As partidas acontecerão em um espaço de quadras de areia, em São Paulo (SP), e o plano é envolver chefias e liderados. “Essa é uma ação, entre muitas, que fazemos para integrar”, diz Maioral, há 12 anos na Oracle e desde 2021 na principal cadeira da multinacional americana no Brasil. “Com a intensificação do trabalho híbrido, é importante unir equipes.”
A iniciativa, segundo Maioral, também reforça uma campanha interna da organização, chamada “Embrace equity” (“Abrace a igualdade”, do inglês), de valorização da força de trabalho feminina. “[Os jogos] serão uma oportunidade para fortalecer relacionamentos pessoais e profissionais.”
Na visão do executivo, após dois anos de pandemia, 2023 promete mudanças positivas e é preciso que todos estejam abertos a aproveitar a retomada dos negócios. “O ano vem com proposta de crescimento e um olhar para as oportunidades”, pondera. “Os clientes contaram conosco em um período de aceleração da transformação digital e os próximos meses oferecem boas chances de continuar esse processo. O meu projeto, desde que assumi a posição de CEO, é alcançar um crescimento de três dígitos. Mas, para isso acontecer, precisamos das pessoas.”
A Oracle reportou lucro líquido de US$ 1,8 bilhão no terceiro trimestre fiscal do ano, encerrado em fevereiro, uma queda de 18% em relação ao anunciado no mesmo período de 2022. A receita líquida da companhia, por sua vez, cresceu 18% em base anual, para US$ 12,3 bilhões no terceiro trimestre fiscal.
Ricardo Basaglia, CEO da consultoria de recrutamento PageGroup Brasil, lembra que relações de confiança não são construídas “do nada”. Tem que dedicar tempo, interesse e energia, explica. “É papel do líder construir ambientes onde seja possível gerar engajamento e conexões.”
É o que está fazendo também a executiva Sandra Maura, CEO da Topmind, empresa de tecnologia com 1,2 mil funcionários e clientes como Nestlé e Syngenta. Este ano, ela retomou um programa de team building que existia desde 2016, mas foi desativado por conta do distanciamento social.
Dirigido para a liderança, envolve reuniões mensais com recursos de gamificação, tarefas colaborativas e práticas de desenvolvimento, a fim de “ampliar as habilidades dos empregados e o ‘pertencimento’ à empresa”. O movimento inclui cerca de 100 funcionários, entre gerentes e diretores, e todos já participaram de alguma das imersões.
“Buscamos desenvolver o senso de ‘espírito de dono’”, diz a executiva, que fundou a companhia há 19 anos. “Participo de todas as reuniões e dinâmicas.”
Entre as atividades, estão jogos de exercício mental, pintura e games, comandados por especialistas do mercado. “Eles trazem visões diferentes para os colaboradores, que ampliam as formas de enxergar desafios profissionais e pessoais”, explica. A lista de mentores inclui uma professora de belas artes, que ajuda a “fazer a ponte” da criatividade com a tecnologia, atividade-fim da marca. “Essa troca entre mundos tão distintos [arte e TI] tira as pessoas das zonas de conforto.”
As próximas reuniões, ainda neste semestre, vão abordar o conceito de “mundo Bani” (sigla para “brittle, anxious, nonlinear e incomprehensible” ou “frágil, ansioso, não linear e incompreensível”, do inglês). A expressão, criada pelo antropólogo e futurologista americano Jamais Cascio, se refere aos desafios da modernidade, com reflexos no ambiente de trabalho.
Maura acredita que as condutas com poder de unir o quadro devem escalar nos próximos anos. “Sempre foi essencial que as empresas investissem nas equipes”, diz. “Mas, agora, isso se tornou obrigatório para que os times mantenham a confiança em suas habilidades e lidem com um mundo incerto, em constante mudança.”
A executiva afirma que as políticas de “reaproximação” também ajudam na retenção de talentos. “Temos o objetivo de manter funcionários de carreira, que façam uma jornada profissional aqui dentro”, explica. A maioria do quadro da Topmind tem, em média, dez anos de casa, um período considerado raro na indústria de TI, com um turnover de 3%, ante 15% do setor, segundo informações do mercado. A companhia abriu mais de 250 vagas em 2022 e pretende manter o mesmo patamar em 2023. “O programa de team building trouxe outros aspectos positivos, como a maior confiança das equipes nas tomadas de decisão e tranquilidade para atravessar fases de incertezas”, garante. “No ambiente de trabalho, tudo pode ser sempre melhorado, desde que haja reconhecimento, colaboração e proximidade.”
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Do aeroporto ao hotel, cientistas apresentaram ideias de como será a vida do turista em 2070
Por O Globo 28/03/2023
A máquina que irá ler os dados biométricos dos passageiros nos aeroportos do futuro, de acordo com o relatório ‘2070: The Future Travel Report’, da easy Jet Divulgação
Sabe o seu passaporte atual, com foto, número de identificação e até chip? Daqui a algumas décadas, ele será substituído por outro biométrico, que usará as batidas do coração do portador como meio de identificação. Essa é uma das previsões do relatório “2070: The Future Travel Report”, da companhia aérea easy Jet, que se propõe a imaginar como serão as viagens aéreas no futuro.
De acordo com os cientistas e futurólogos que participaram do estudo, patrocinado pela low-cost britânica, quem viajar daqui a quase 50 anos não precisará entrar em filas e ter seus dados verificados por funcionários de órgãos de segurança, administração portuária ou companhias aéreas. Bastará passar por uma máquina que será capaz de captar dados biométricos do passageiro, como traços faciais, leitura de retina e a “assinatura” do batimento cardíaco, que é única para cada pessoa.
As mudanças, claro, não estarão restritas ao aeroporto. Contrariando as atuais tendências, que apontam para espaços cada vez mais reduzidos dentro do avião (para quem não pagar por um assento premium, claro), o relatório apresenta uma previsão até otimista. No futuro, as poltronas poderão se ajustar ao formato do corpo do passageiro. Produzidas com um material “inteligente”, elas se moldarão de acordo com o peso, a altura e até mesmo a temperatura corporal de cada viajante.
O relatório da easy Jet prevê poltronas ‘inteligentes’ nos aviões, que se moldarão a partir do formato do corpo do passageiro — Foto: Divulgação
Uma vez (muito bem) acomodado, o passageiro terá à sua disposição um serviço de entretenimento de bordo digno de ficção científica. Em vez da telinha instalada na parte traseira do banco da frente, um sistema optoeletrônico permitirá que os filmes e séries (numa oferta muito superior à disponibilizada hoje em dia) sejam exibidos diretamente nos olhos do passageiro.
Algo parecido acontecerá com os passeios. Uma nova geração de óculos e fones de ouvido surgirá, permitindo que a realidade virtual seja aplicada a praticamente qualquer lugar. Usando esses equipamentos, o turista poderá acessar informações interessantes sobre o destino e até mesmo viajar para o passado, vendo como era aquela paisagem e como viviam as pessoas. E fones de ouvido especiais farão a tradução simultânea para qualquer idioma, derrubando a barreira da comunicação.
No futuro, óculos de realidade virtual permitirão viagens ao passado, de acordo com os especialistas — Foto: Divulgação
Entre as previsões do relatório estão sonhos antigos, como táxis voadores nos arredores dos aeroportos, e um novo sistema de decolagem e pouso vertical dos aviões de carreira, o que faria com que as viagens se tornassem mais curtas e que as aeronaves pudessem chegar a mais lugares. E outras possibilidades com as quais as pessoas talvez nunca tivessem sonhado, mas que gostariam que se tornassem realidade, como a possibilidade de escolher, antes do check-in, a firmeza da cama e a temperatura do quarto do hotel.
Pelo que sugerem os cientistas, o futuro será também das impressoras 3D. Essa tecnologia avançará a tal ponto que os turistas não precisarão mais levar malas consigo, já que a cada destino será possível imprimir roupas para aquele tipo de clima ou ocasião. Isso chegará até ao bufê do café da manhã de hotéis, uma instituição praticamente intocada nos dias de hoje. De acordo com os especialistas, será possível “imprimir” qualquer tipo de comida a qualquer hora. Isso ajudaria a reduzir o desperdício de alimentos, um problema crônico em hotéis e restaurantes em todo o mundo.
Impressoras 3D fazendo na hora qualquer tipo de comida nos restaurantes dos hotéis também estão entre as previsões futurísticas do relatório — Foto: Divulgação
Encabeçando o relatório, a professora Birgitte Andersen, do Birkbeck College, disse em nota:
“Os próximos 50 anos trarão os maiores avanços tecnológicos que já vimos em viagens e turismo. Aspectos de como passamos as férias serão transformados além do reconhecimento. Olhando para o futuro, até o ano de 2070, os destinos para os quais voamos, o tipo de acomodação em que ficamos e as experiências que temos terão mudado imensamente.”
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/