Previsões do tempo nos ajudam decidir fornecendo aviso para otimizar rede elétrica, daí, serviços como o Australian Bureau of Meteorology usam matemática complexa da Terra e atmosfera, ou, modelos climáticos e de tempo, sendo que o mesmo software é usado para prever clima futuro nas próximas décadas ou mesmo séculos, previsões, que permitem planejar, ou evitar, impactos de futuras mudanças climáticas, quer dizer, modelos de clima e tempo são complexos. O Australian Community Climate and Earth System Simulator, por exemplo, é composto por milhões de linhas de código de computador, sem modelos de clima e tempo, tanto para eventos climáticos de curto prazo quanto a futuro de longo prazo, seria mais complexo que atualmente, cujo funcionamento do clima por exemplo, corresponde o comportamento de curto prazo da atmosfera, temperatura em um determinado dia, vento, se está chovendo e quanto, enquanto o tempo trabalha sobre estatística de longo prazo de eventos climáticos a temperatura típica no verão, ou, com que frequência tempestades e inundações acontecem a cada década, sendo que a razão pela qual usamos as mesmas ferramentas de modelagem ao clima e ao tempo é porque ambas são baseadas nos mesmos princípios físicos. Modelos compilam fatores, radiação solar, fluxo de ar e água, superfície terrestre, nuvens em equações matemáticas resolvidas em pequenas caixas de grade tridimensionais e reunidas para prever o estado futuro, sendo que as caixas são como pixels que se juntam para formar imagem maior, em soluções calculadas no computador onde usar mais caixas de grade, resolução mais fina, melhora respostas, no entanto, consome mais recursos de computação, por isso que as melhores previsões precisam de supercomputador como o Gadi da National Computational Infrastructure em Canberra e, como clima e tempo são governados pelos mesmos processos físicos, podemos usar o mesmo software para prever o comportamento de ambos. Diferenças entre clima e tempo se resumem ao conceito, "inicialização", ou, ponto de partida de um modelo, que em muitos casos, a previsão mais simples ao clima de amanhã é a previsão de "persistência", ou, o clima de amanhã será semelhante ao de hoje, significando que, independentemente quão bom seja seu modelo, se começar com condições erradas, não haverá esperança de prever o amanhã, daí, previsões de persistência são boas para temperatura, menos eficazes à outros aspectos do clima como chuva ou vento e, como esses aspectos são os mais importantes do clima a serem previstos, meteorologistas precisam de métodos mais sofisticados. Modelos climáticos usam matemática complexa com informações climáticas, de ontem e hoje, fazendo daí, boa previsão de amanhã grande melhoria em previsões de persistência, mas não perfeitas, além disso, quanto mais à frente prever, mais informações se perdem sobre o estado inicial e pior a previsão, daí, necessidade de atualizar e executar, ou, na linguagem de modelagem, "inicializar" o modelo regularmente para obter melhor previsão, quer dizer, serviços meteorológicos podem prever com segurança de 3 a 7 dias de antecedência, dependendo da região, da estação e do tipo de sistema climático envolvido. Modelos climáticos produzem tipo e frequência de eventos climáticos, mas não previsão específica do clima real, considerando que o efeito cumulativo desses eventos climáticos produz o estado climático que inclui fatores como temperatura média e probabilidade de eventos extremos, portanto, um modelo climático não nos dá resposta com base em informações meteorológicas de ontem ou de hoje, é executado durante séculos para produzir seu próprio equilíbrio à Terra simulada, também conhecido como sistema terrestre, necessita levar em conta processos adicionais de longo prazo não considerados como, circulação oceânica, criosfera ou partes congeladas do planeta, ciclo natural do carbono e emissões de carbono das atividades humanas. Avanços nos últimos 2 anos na previsão do clima com machine learning, levam modelos baseados em machine learning superar modelos baseados em física, daí, necessidade de serem treinados significando necessidade de ser suplementado pela saída de modelos tradicionais, daí, modelos climáticos e meteorológicos são infraestrutura digital crucial, ferramentas à tomadores de decisão, bem como a cientistas e pesquisadores fornecendo suporte à agricultura, gestão de recursos e desastres, daí, entender como funcionam é vital.
Neste ecossistema, aumento de 0,5°C na temperatura tornará inabitável à humanos área do tamanho dos EUA se o aquecimento global atingir 2°C acima da média pré-industrial, quer dizer, 2024 quebrou todos os recordes de temperatura, a temperatura média global subiu 1,5°C acima da média pré-industrial, enquanto descobertas científicas vinculam ciência do clima físico a risco de mortalidade por calor e à medida que mudanças climáticas continuam piorar com eventos climáticos extremos se tornando norma, estudo revela que aumento de 0,5º C na temperatura fará com que mais partes do planeta se tornem quentes demais à vida humana. Publicado na Nature Reviews Earth and Environment, revelou que a massa de terra que seria quente demais até mesmo à humanos jovens e saudáveis, 18 a 60 anos, que manteriam temperatura corporal segura, deverá triplicar criando área inabitável quase o tamanho dos EUA se o aquecimento global atingir 2°C acima da média pré-industrial. O autor principal do artigo esclarece que “as descobertas mostram consequências potencialmente mortais se o aquecimento global atingir 2°C, com limiares de calor insuportáveis, que até agora foram excedidos apenas brevemente à adultos mais velhos nas regiões mais quentes da Terra, provavelmente surgirão para adultos mais jovens", considerando que 2024 quebrou todos os recordes de temperatura e foi o primeiro ano civil com uma temperatura média global de mais de 1,5°C acima da média pré-industrial. Cientistas distinguem entre limites não compensáveis, além dos quais a temperatura corporal central humana aumenta incontrolavelmente e, limites não sobrevivíveis, onde a temperatura central do corpo aumenta à 42°C em 6 horas, enquanto limites não compensáveis foram ultrapassados à todas as idades e limites não sobrevivíveis até agora foram ultrapassados apenas brevemente à adultos mais velhos, concluindo que, “o que a revisão mostra, que particularmente à níveis mais altos de aquecimento, como 4°C acima da média pré-industrial, impactos do calor extremo na saúde podem ser extremamente ruins”, revelando que, certas regiões correm mais risco de cruzar limites críticos de incompensabilidade e insuportabilidade, com pessoas na África Saariana e Sul da Ásia como as mais expostas, observando que, 3 eventos de calor mais mortais do século XXI causaram quase 200 mil mortes, incluindo 72 mil na Europa em 2003 e 62 mil em na Europa em 2022, sendo que a onda de calor russa de 2010 matou 56 mil.
Moral da Nota: IA é inovação tecnológica impactante, raramente pensamos nas origens, embora associem psicologia à saúde mental, sua influência na criação IA foi fundamental, sendo que a ciência da mente forneceu modelos e teorias que permitiram o desenvolvimento de sistemas inteligentes que imitam o pensamento e tomada de decisões, considerando que no século XX, psicólogos buscaram estudar como o cérebro aprende e processa informações, com Donald Hebb, pioneiro que em 1949 propôs conexões entre neurônios são fortalecidas quando ativados simultaneamente, teoria que inspirou Frank Rosenblatt desenvolver o perceptron, ou, a primeira rede neural artificial, no conceito que máquinas aprendem ajustando conexões entre elementos assim como o cérebro, sendo que o perceptron é marco no desenvolvimento IA, demonstrando que as máquinas podem aprender com a experiência em vez de seguir instruções programadas, embora a tecnologia tivesse limitações nos primórdios, lançou bases às redes neurais modernas. Na década de 1980, David Rumelhart aprimorou o perceptron com método matemático chamado retropropagação, técnica que permitiu redes neurais ajustarem conexões de forma eficiente, abrindo caminho à avanços no aprendizado profundo, em 2024, Hinton recebeu o Prêmio Nobel de Física por seu trabalho em redes neurais, ressaltando a importância da psicologia na evolução IA, sendo que um dos grandes desafios IA é equipar máquinas com raciocínio reflexivo, conhecido como metacognição, conceito introduzido na década de 1970 por John Flavell para descrever capacidade humana de avaliar e melhorar o pensamento, com pesquisas em andamento sobre como incorporar a capacidade aos sistemas IA e melhorar a tomada de decisão, por exemplo, a OpenAI desenvolveu modelos que apresentam melhor desempenho em testes de inteligência fluida avaliando a capacidade de resolver novos problemas sem treinamento prévio. O cientista da computação Edward Lee alertou que exigir explicações de sistemas IA pode ser arriscado com base em pesquisa de Daniel Kahneman ao demonstrar que humanos muitas vezes justificam suas decisões com explicações criadas após o fato que nem sempre reflete seu verdadeiro raciocínio, fenômeno que pode ser transferido à IA gerando justificativas falsas em vez de explicações genuínas, considerando ainda que estudos de Eleanor Maguire mostram que o cérebro humano pode se adaptar a novas tecnologias como observado em taxistas de Londres cujos cérebros são modificados pela memorização de mapas complexos e, à medida que IA avança, é provável que mude o modo como adquirimos conhecimento e resolvemos problemas.