Modelos computacionais complexos que descrevem processos da Terra e sua interação são essenciais na previsão de futuras mudanças climáticas simulando resposta dos solos, oceanos e atmosfera às emissões de gases efeito estufa provocadas pelo homem, constituindo base à previsões de cenários climáticos e meteorológicos extremos incluindo os emitidos pelo IPCC. Modeladores climáticos enfrentam grande questão, ou, como Modelos do Sistema Terrestre integram processos que não permitem executar simulação imediata, devendo garantir que atingiu equilíbrio estável representativo das condições do mundo real antes da revolução industrial e, sem este período de estabilização inicial conhecido como fase de “spin-up”, o modelo “deriva”, simulando mudanças que podem ser erroneamente atribuídas a fatores provocados pelo homem. Este processo é lento e requer execução do modelo durante milhares de anos-modelo, o que, para simulações do IPCC, pode levar até 2 anos em supercomputadores, no entanto, estudo publicado na Science Advances realizado pela Universidade de Oxford e financiado pela Agile Initiative descreve algoritmo de computador aplicado a modelos de sistemas terrestres para reduzir tempo de rotação e, nos testes de modelos utilizados nas simulações do IPCC, o algoritmo foi em média 10 vezes mais rápido na rotação do modelo que as abordagens utilizadas reduzindo tempo para atingir equilíbrio de meses para menos de uma semana. O algoritmo emprega abordagem matemática conhecida como aceleração de sequência, com raízes na matemática de Euler e, na década de 1960, o conceito foi aplicado para acelerar a solução da equação de Schrodinger, que prevê como a matéria se comporta a nível microscópico, problema que mais de metade do poder mundial de supercomputação está dedicado a resolver e a 'Aceleração de Anderson', como é conhecida, é um dos algoritmos mais utilizados na resolução. O longo tempo de rotação de modelos do IPCC impede que investigadores do clima executem modelo com resolução mais elevada e definam a incerteza através da realização de simulações repetidas e, ao reduzir o tempo de rotação, o novo algoritmo permite investigadores estudar como mudanças sutis nos parâmetros do modelo alteram o resultado, fundamental para definir a incerteza de cenários futuros de emissões.
Investigação envolvendo a UEA, Universidade de East Anglia, sugere que os planos dos países para remover CO2 da atmosfera serão insuficientes para cumprir o limite de 1,5 ºC estabelecido no Acordo de Paris e, desde 2010, o PNUMA, instituição ambiental da ONU, realiza medição anual da lacuna de emissões sendo que a diferença entre compromissos de proteção climática dos países e o que é necessário para limitar o aquecimento a 1,5 ºC, ou, pelo menos abaixo de 2 ºC, sendo que relatórios do PNUMA sobre a Lacuna de Emissões esclarecem que a política climática precisa mais ambição, sendo que o estudo aplica este conceito analítico à remoção de CO2, CDR, gás efeito estufa mais importante. O estudo publicado Nature Climate Change, liderado pelo Mercator Research Institute on Global Commons and Climate Change, MCC, sediado em Berlim, envolveu cientistas esclarecendo que “nos Relatórios de Lacunas de Emissões, as remoções de carbono são contabilizadas apenas indiretamente”, demonstrando que “a referência habitual aos compromissos de proteção climática são emissões líquidas, ou seja, emissões menos remoções, o que torna transparente a lacuna de ambição específica na intensificação das remoções, concluindo que, a “gestão de resíduos planetários imporá requisitos novos a decisores políticos e tornar-se-á pilar da proteção climática na 2ª metade do século.” A coautora, do Centro Tyndall para Pesquisa sobre Mudanças Climáticas da UEA, acrescenta que "métodos de remoção de CO2 têm papel pequeno, mas vital, a desempenhar na consecução do zero líquido e na limitação dos impactos das mudanças climáticas, sendo que, “a análise mostra que os países precisam mais consciência, ambição e ação na ampliação dos métodos de CDR com reduções profundas de emissões para alcançar as aspirações do Acordo de Paris.” O estudo esclarece que se as metas nacionais forem totalmente implementadas, as remoções anuais de carbono induzidas pelo homem aumentarão em, no máximo de 0,5 gigatoneladas de CO2, 500 milhões de toneladas, até 2030, e, no máximo de 1,9 gigatoneladas até 2050, contrastando com aumento de 5,1 gigatoneladas necessário em “cenário focal” que a equipe de investigação descreve como típico do último relatório de avaliação do IPCC. Atualmente, removem apenas 0,002 gigatoneladas de CO2 por ano da atmosfera comparados com 3 gigatoneladas através de opções convencionais como plantio de florestas, sendo pouco provável que aumentem até 2030, e, de acordo com cenários, devem tornar-se mais predominantes que as opções convencionais até 2100 uma vez que apenas 40 países quantificaram planos de remoção nas estratégias de desenvolvimento a longo prazo com baixas emissões levando o estudo se basear em outros documentos nacionais e suposições de melhores estimativas.
Moral da Nota: o despejo offshore na costa da Califórnia levou a descobertas sobre se o DDT, pesticida proibido, continua ser ameaça à vida selvagem e a saúde humana, já que nas décadas de 1940 e 1950, o oceano ao largo da costa de Los Angeles era lixeira do maior fabricante norte-americano de DDT, agora conhecido ser prejudicial a humanos e vida selvagem, e continua assolar Los Angeles em cerca de 24 kms perto da Ilha Catalina meio século depois. Pesquisa do Scripps Institution of Oceanography da Universidade da Califórnia, San Diego e da San Diego State University, SDSU, descobriu que peixes de águas profundas e sedimentos coletados próximo ao local de despejo offshore da Ilha Catalina estão contaminados com produtos químicos relacionados ao DDT, publicado na Environmental Science and Technology Letters e financiado pela Administração Oceânica e Atmosférica Nacional, sugere que produtos químicos relacionados ao pesticida e despejados no oceano há décadas podem entrar nas cadeias alimentares marinhas. Cientistas buscam discernir extensão e gravidade do problema, de particular urgência como a questão se produtos químicos com décadas de existência, agora depositados no fundo do mar a milhares de metros de profundidade, permanecem onde estão ou circulam em ecossistemas marinhos onde compostos prejudicam vida selvagem ou se representam riscos à saúde humana. De 1948 a 1961, barcos da Montrose Chemical Corporation, produtora de DDT, viajaram de Los Angeles a Catalina e bombearam resíduos com ácido sulfúrico contendo 2% de DDT puro diretamente no Oceano Pacífico, medida legal até 1972, despejo ofuscado pela eliminação de resíduos de Montrose, ou, bombear lama ácida diluída com DDT nos esgotos de Los Angeles estimando que 100 toneladas de DDT tenham ido nos sedimentos da plataforma de Palos Verdes, ao passo que a Agência de Proteção Ambiental, EPA, declarou-a um Superfund Site subaquático em 1996, enquanto em 2000, um juiz ordenou que a empresa pagasse US$ 140 milhões para remediar danos ambientais, desde então, a investigação relacionou a poluição por DDT à contaminação e problemas de saúde na vida selvagem local incluindo leões marinhos, golfinhos, peixes e condores costeiros da Califórnia, por consumirem mamíferos marinhos mortos. Em 2011, o pesquisador da UC Santa Bárbara usou robô submarino à redescobrir o despejo offshore de Montrose perto de Catalina, cujas descobertas saltaram à consciência pública em 2020 quando o Los Angeles Times publicou o desenrolar do legado tóxico do dumping offshore da região, daí, numerosos estudos estão em andamento para responder questões urgentes com pesquisadores analisando amostras de peixes, alvo de pescadores recreativos e pesca comercial, para DDT+, enquanto a comparação dos produtos químicos e concentrações nestes peixes com amostras de sedimentos recolhidas na Plataforma e Lixão 2 de Palos Verdes permitirá determinar origem das toxinas nestes peixes.