sábado, 27 de setembro de 2025

Estagnação

Estudo do MIT nos alerta que 95% dos projetos IA fracassam, com o hype bilionário podendo esconder riscos às empresas e investidores com levantamento da CM Insights mostrando que existem quase 500 unicórnios IA, startups avaliadas em mais de US$ 1 bilhão, juntas, um valor próximo de US$ 2,7 trilhões, crescimento que lembra a bolha ponto-com quando a especulação levou ao colapso que atingiu toda a economia, lembrando que o  termo unicórnio surgiu em 2013 através da investidora Aileen Lee para indicar a raridade das empresas, hoje, unicórnios IA mostram mais sobre o excesso de capital e expectativas, que rentabilidade real, afinal, parte do valor é oriunda de promessas futuras e não lucros presentes. O CEO da OpenAI, Sam Altman, admite que “investidores estão excitados com IA” que inevitavelmente “muitos perderão  dinheiro”, em seguida, o MIT publicou o relatório The GenAI Divide: State of AI in Business 2025 em que mostra contundência em que 95% dos projetos-piloto IA não chegam gerar crescimento relevante de receita, quer dizer, o problema não está nos modelos em si mas no learning gap organizacional, constituído por processos frágeis, falta de alinhamento operacional e soluções mal contextualizadas, quer dizer, o desafio não é apenas técnico mas estrutural nas empresas. O desencontro entre expectativa e realidade começa a aparecer em Wall Street, com a Nasdaq registrando quedas puxadas pelo setor IA com empresas como NVIDIA e Palantir entre as mais atingidas, sendo que o caso da Palantir parece emblemático, já que a empresa negocia hoje a 280 vezes lucros futuros estimados e múltiplos acima dos considerados insustentáveis na bolha de 2000, a diferença é que, agora, financiadores IA não são startups frágeis mas gigantes como Microsoft, Google, Amazon e Meta, com lucros e caixa robusto que reduz risco de colapso imediato, mas não elimina possível correção brusca de mercado.

O The GenAI Divide: State of AI in Business 2025, relatório da iniciativa NANDA do MIT, fala que, embora IA generativa seja promissora às empresas, a maioria das iniciativas para impulsionar o rápido crescimento de receita fracassa, considerando que quase todos os pilotos corporativos estão estagnados na linha de partida e, apesar da pressa em integrar modelos poderosos,  5% dos programas piloto IA alcançam rápida aceleração da receita enquanto a grande maioria estagna, gerando pouco ou nenhum impacto mensurável no P&L sendo a  pesquisa baseada em 150 entrevistas com líderes, 350 funcionários e análise de 300 implantações públicas IA mostrando clara divisão entre histórias de sucesso e projetos paralisados. O autor do relatório e colaborador de pesquisa do projeto NANDA no MIT, Aditya Challapally, avisa que "pilotos de empresas e startups mais jovens se destacam com IA generativa",  enquanto, startups lideradas por jovens de 19 ou 20 anos, por exemplo, "viram receitas saltarem de zero à US$ 20 milhões em um ano", acrescentando que, "isso ocorre porque escolhem um ponto problemático, executam bem e fazem parcerias inteligentes com empresas que usam suas ferramentas", no entanto diz,  para 95% das empresas no conjunto de dados a implementação IA generativa está aquém do esperado.  Segundo o autor do relatório, não é a qualidade dos modelos IA mas a "lacuna de aprendizado" tanto às ferramentas quanto às organizações, embora executivos culpem a regulamentação ou o desempenho do modelo, a pesquisa do MIT aponta à integração empresarial falha em que ferramentas genéricas como ChatGPT se destacam para indivíduos devido sua flexibilidade mas  estagnam no uso corporativo pois não aprendem com os fluxos de trabalho nem se adaptam a eles, complementando que, os dados revelam desalinhamento na alocação de recursos em que mais da metade dos orçamentos IA generativa são dedicados a ferramentas de vendas e marketing, enquanto o MIT encontrou alijamento da terceirização de processos de negócios cortando custos com agências externas otimizando  operações. A compra de ferramentas IA de fornecedores especializados e a construção de parcerias são bem-sucedidas em  67% dos casos  enquanto construções internas são bem-sucedidas em um terço dessa frequência, sendo que tal descoberta é particularmente relevante em serviços financeiros e setores altamente regulamentados onde empresas constroem seus sistemas proprietários IA generativa, no entanto, a pesquisa do MIT sugere que as empresas veem muito mais falhas quando atuam sozinhas, já que as pesquisadas hesitavam compartilhar taxas de falha, segundo o autor do relatório. O relatório destaca o uso generalizado de "IA paralela", quer dizer, ferramentas não sancionadas como o ChatGPT e o desafio  de mensurar o impacto IA ​​na produtividade e lucro, considerando que, "em quase todos os lugares as empresas tentavam construir sua própria ferramenta" mas os dados mostraram que as soluções adquiridas entregavam resultados mais confiáveis, além de outros fatores chaves incluindo capacitar gerentes de linha não apenas laboratórios centrais IA para impulsionar adoção e selecionar ferramentas que se integrem profundamente e se adaptem ao longo do tempo, mostrando que a disrupção do trabalho está em andamento, especialmente em funções administrativas e de suporte ao cliente e, em vez de demissões em massa, as empresas estão cada vez mais evitando o preenchimento de vagas à medida que ficam vazias, sendo que a maioria das mudanças se concentra em empregos antes terceirizados devido ao baixo valor percebido. Quer dizer, o futuro se insere em organizações avançadas que experimentam sistemas IA que podem aprender, lembrar e agir de modo independente nos limites definidos vislumbrando como a próxima fase IA ​​empresarial pode se desenrolar.

Moral da Nota: o governo norte americano na busca por proteger da China e Rússia sua IA possui planos preliminares para colocar proteções nos modelos mais avançados, segundo a Reuters, com pesquisadores temendo que adversários usem modelos que extraem grandes quantidades de texto e imagens à resumir informações e gerar conteúdo, para travar ataques cibernéticos ou criar armas biológicasAí, se inserem, deepfakes em que vídeos realistas, fabricados, criados por algoritmos IA treinados em filmagens on-line abundantes emergem nas mídias sociais confundindo fato e ficção em mundo polarizado, embora exista há vários anos foi turbinada em 2024 por ferramentas "IA generativa" como o Midjourney que tornam barato e fácil criar deepfakes convincentes, sendo que as ferramentas de criação de imagens alimentadas por IA de empresas como OpenAI e Microsoft MSFT podem ser usadas para produzir fotos que promovam desinformação eleitoral ou relacionada à votação, apesar de cada uma ter políticas contra a criação de conteúdo enganoso, segundo relatório. Campanhas de desinformação aproveitam capacidade IA ​​de imitar artigos de notícias reais como meio de disseminar informações falsas, embora plataformas como Facebook, Twitter e YouTube fazem esforços para proibir e remover deepfakes sua eficácia no policiamento desse conteúdo varia, por exemplo, em 2024, um site de notícias controlado pelo governo chinês usando plataforma IA generativa divulgou alegação falsa que os EUA administravam laboratório no Cazaquistão para criar armas biológicas que seriam utilizadas contra a China, segundo o DHS, Departamento de Segurança Interna, em sua avaliação de ameaça interna de 2024. A comunidade de inteligência americana, think tanks e acadêmicos se preocupam com riscos de agentes estrangeiros mal-intencionados acessarem recursos IA, com  Pesquisadores da Gryphon Scientific e da Rand Corporation observando que modelos IA podem fornecer informações que ajudariam criar armas biológicas, sendo que a  Gryphon estudou como modelos de linguagem, LLM, programas de computador que extraem grandes quantidades de texto para gerar respostas a consultas, podem ser usados para causar danos nas ciências biológicas ao descobrir que"podem fornecer informações que ajudam um agente malicioso criar arma biológica fornecendo informações úteis, precisas e detalhadas em cada etapa desse caminho",  por exemplo, um LLM poderia fornecer conhecimento de nível pós-doutorado para solucionar problemas ao trabalhar com um vírus com capacidade pandêmica, ou, podem ajudar no planejamento e execução de um ataque biológico, ou, sugerir métodos de administração de aerossol para toxina botulínica.