segunda-feira, 23 de junho de 2025

Ciberespionagem

Emerge com a China IA para espionagem cibernética monitorando redes humanas em ambiente abstrato e onírico, com o FBI dizendo que os chineses usam IA para aprimorar ataques contra infraestrutura crítica norte americana ao se infiltrar em setores-chave como telecomunicações, energia e abastecimento de água. A vice-diretora assistente do FBI fala em grupos cibercriminosos apoiados pelo governo chinês empregando IA nas etapas do processo de intrusão embora nem sempre atinja o objetivo, no entanto, o uso da tecnologia permite rapidez e eficiência nas operações com IA atuando como catalisador que torna cada etapa, da identificação de vulnerabilidades ao movimento lateral nas redes, mais rápida e precisa. Caso representativo é o do grupo Volt Typhoon que criou botnet explorando roteadores obsoletos com a rede de dispositivos comprometidos usada para estabelecer  base de operações visando atacar infraestruturas críticas, outro exemplo é o Salt Typhoon que em 2024 se infiltrou em 9 empresas de telecomunicações e redes governamentais dos EUA e, recentemente, teve como alvo mais de mil dispositivos Cisco expostos à internet. Os ciberataques entram pela porta mais fraca, ou, dispositivos desatualizados e bugs sem correção, acessos que permitem movimentos furtivos nas redes, saltando de sistemas de gestão empresarial à tecnologia operacional em que os atacantes exploram, mapeiam e avançam até atingirem o controle desejado e, dentro do sistema, IA auxilia os invasores mapear redes de modo eficiente descobrindo caminhos ocultos e vulnerabilidades, além de ser usada para aperfeiçoar técnicas de engenharia social, por exemplo, deepfakes, vídeos ou áudios falsos gerados por IA que permite o criminoso se fazer passar por um CEO ou gerente e convença um funcionário fazer transferência urgente. A política do FBI possui como prioridade conter atores estatais e gangues criminosas que automatizam tarefas com modelos de linguagem e ferramentas generativas, embora não tenha sido visto um ataque 100% automatizado por IA, foi detectada crescente integração da tecnologia em várias fases do ataque, por exemplo, redigir mensagens de phishing mais convincentes, criar perfis falsos para enganar usuários ou detectar com precisão quais departamentos dentro da empresa são mais suscetíveis a ataques. Nesta ideia, pilares surgem, ou, bloquear acessos não autorizados desde o início e restringir a movimentação interna nas redes atualizando dispositivos, fechando portas não utilizadas e aplicando patches de segurança assim que lançados, além da autenticação multifator embora haja discussão sobre aplicativos e tokens e, à medida que IA melhora, melhoram estratégias de ciberataques e a combinação de IA e táticas de espionagem criam coquetel perigoso que exige vigilância, colaboração entre governos e comprometimento de empresas privadas.

Estudo da Cybernews, empresa especializada, analisa questão que as empresas preferem não admitir, ou, a falta de rigor nas medidas de segurança cibernética não em empresas pequenas e com poucos recursos, mas, nas 100 empresas consideradas mais confiáveis ​​nos EUA em lista publicada pela Forbes em 2024 com o relatório revelando que as empresas avaliadas sofreram algum tipo de violação de dados e que 1 em 4 foi vítima de intrusão nos últimos 30 dias mostrando que nenhuma empresa, por mais respeitável que seja, está imune a ameaças digitais e, dentre elas estão a NVIDIA, Apple e American Express ligadas à tecnologia e a serviços financeiros, setores sob escrutínio quando se trata de segurança. A Cybernews usou sistema de classificação Business Digital Index para avaliar medidas de proteção online de cada empresa com resultado mostrando que 94 das 100 receberam classificação D ou pior e, destes, 53 receberam nota D, alto risco, e 41 nota F, risco crítico, enquanto uma das descobertas mais alarmantes do relatório é que 46 das empresas têm funcionários reutilizando senhas que já haviam vazado em violações anteriores, prática semelhante de usar chave roubada para trancar a porta da frente e, se alguém a tiver, entrará sem nenhum esforço. O relatório identifica problemas técnicos que aumentam o risco de ataque como 100% das empresas tem problemas de configuração de SSL/TLS, essenciais para proteger comunicações na web, 93% tiveram falhas de hospedagem do sistema facilitando acesso não autorizado, 89% sofreram com vulnerabilidades em aplicativos web, pontos de entrada comuns à invasores, 50% não aplicaram patches de software corretamente deixando portas abertas que já deveriam estar fechadas com os dados mostrando que não se trata apenas de erro humano, mas, falhas sistemáticas na gestão da infraestrutura digital. O estudo se concentra em setores de Varejo e Consumo e Serviços Financeiros e Profissionais, ambos recebendo  pontuações baixas em segurança cibernética, especialmente relevante porque lidam com volumes de dados confidenciais como informações financeiras e perfis de clientes e, um ataque pode ter consequências devastadoras, economicamente e em termos de reputação. Daí surgem conceitos que IA já faz parte do dia a dia, desde o que vemos e ouvimos ao que compartilhamos, com imagens geradas que se tornam virais como retratos no estilo Ghibli ou cães humanizados, parecendo inofensivas, mas com custo oculto e, de acordo com a Universidade de Copenhague, 2023, uma única imagem pode consumir até 20 vezes mais energia que uma pesquisa no Google e, à medida que cresce seu uso, o paradoxo fica evidente, ou, a IA inspira entusiasmo, ludicidade e eficiência, mas, gera ansiedade e, na América Latina essa tensão particularmente se reflete, com dados do TRENDLAB da Youniversal, consultoria de pesquisa e tendências, mostrando que 72% dos consumidores da região reconhecem que IA impactará vidas nos próximos anos e 53% se sentem preocupados ou confusos a esse respeito. Daí, o medo de ser substituído ou ter piores condições de trabalho,72%, com IA e, em menor grau, 36% temem a manipulação de informações, deepfakes, fake news, e perda do controle humano sobre decisões importantes e por fim, em menor grau, crescente preocupação ética sobre viés algorítmico e uso de dados pessoais sem consentimento, 22%, aqui, os medos têm a ver com a perda de autonomia no sentido que deepfakes e IA replicam preconceitos sociais e, portanto, o medo não é apenas sobre o que a IA faz mas sobre quem a programa e, para quais propósitos.

Moral da Nota: IA generativa evolui remodelando como indústrias criam, operam e interagem com usuários e, à medida que novas ferramentas e recursos surgem, redefinem o desenvolvimento de software, atendimento ao cliente e  fluxos de trabalho criativos, quer dizer, de modelos menores e eficientes a sistemas capazes de decisão autônoma com possibilidades se expandindo. Tendências emergentes de IA generativa envolvem codificação de vibração amplamente conhecida mas que se consolida com força, quer dizer, a codificação Vibe revoluciona paradigmas e metodologias de desenvolvimento de software permitindo utilização de prompts IA para gerar código, direcionando esforços à elaboração de especificações eficazes com o Q Developer da Amazon, por exemplo, permitindo proporção de seu código de produção gerado por IA aumento de produtividade. A IA Agente ou agêntica, com desenvolvimento de sistemas que buscam objetivos de longo prazo de modo autônomo e decidem com intervenção humana mínima, tendência em ascensão, dependendo cada vez mais de modelos generativos para executar raciocínios e gerar planos de ação para aprimorar aspectos como satisfação do cliente e eficiência do serviço como AutoGPT e OpenDevin. O lançamento de modelos que expandem capacidades de integrar dados como texto, imagens, som e vídeo e, analisar conteúdo criando conteúdo solicitado pelo usuário com mais eficácia e sucesso particularmente em setores de saúde e varejo com IA multimodal aprimorando experiências de pacientes e clientes, aí, ​​incluem o GPT-4o e o Gemini 1.5 Pro. O uso de versões menores de modelos massivos como os LLMs que lidam com cenários de domínio com eficiência sem requisitos de hardware, aqui, os chamados modelos de linguagem pequena, SLMs, por exemplo, usados ​​em cenários como extração de palavras-chave e detecção de spam como o Phi-2 e DistilBERT. A implementação de leis e estruturas éticas para garantir uso IA ​​é tema de debate no desenvolvimentos de IA generativa, com a Lei IA da UE aprovada em agosto de 2024, como exemplo de diretriz à conformidade empresarial no desenvolvimento de soluções IA que respeitem padrões de segurança, transparência e ética implementada gradualmente, com regras específicas aplicadas à sistemas de alto risco, valendo dizer que, modelos generativos IA permeiam aplicações setoriais para personalizar e aprimorar interações com clientes trazendo impactos tangíveis como redução nos custos, caso de empresas como a Klarna cujos sistemas IA gerenciam 80% das interações rotineiras com clientes. Por fim, a presença de modelos e ferramentas IA generativa nas indústrias criativas transforma o modo como texto, imagens, música e anúncios são gerados com base em estímulos humanos com profissionais migrando ao uso IA à criação de conteúdo permitindo processos de produção mais ágeis, por outro lado, a tendência não está isenta de debates sobre como impacta certos profissionais como designers gráficos, animadores e etc em ferramentas como Adobe Firefly e Midjourney exemplificando a mudança.