terça-feira, 1 de abril de 2025

Declínio

O abuso de opioides nos EUA tornou-se epidemia, no entanto, em 2024, surgiu esperança que esteja se revertendo, com queda de 16,9% das mortes por opioides, com o The Economist dizendo que ninguém tem certeza sobre a reversão com possibilidade de choque de oferta cuja quantidade de fentanil em pílulas interceptada caiu, enquanto relatórios sugerem que o cartel de Sinaloa, crime organizado, recuou do contrabando de fentanil decorrente pressão americana, com especialistas dizendo que é cedo para ter certeza. Outro fato é que o declínio represente retorno às normas pré-pandêmicas quando a covid-19 chegou e as overdoses de opioides dispararam, com hospitais cheios de pacientes com covid, enquanto centros de tratamento fecharam e mais pessoas estavam passando por perdas traumáticas que podem fazê-las recorrer às drogas, além disso, a epidemia pode estar “se esgotando” conforme sugere o Professor Ciccarone, na teoria que os mais vulneráveis ​​já morreram e os que ficaram entendem o perigo do fentanil, portanto, novos viciados não os substituem. O CDC responsável pelo acompanhamento descreve a epidemia de opioides em 3 ondas, com a 1ª onda, opioides prescritos de 1999-2009, começando com aumento da prescrição na década de 1990 causa das mortes por overdose envolvendo opioides prescritos, opioides naturais e semissintéticos e metadona, aumentaram a partir de 1999 diminuindo nos últimos anos, segue a 2ª onda com heroína, 2010-2012, começando em 2010, com aumentos nas mortes por overdose envolvendo heroína, com diminuição nos últimos anos e, por fim, a 3ª onda com opioides sintéticos, de 2013 até hoje, com aumentos nas mortes por overdose envolvendo opioides sintéticos, aquelas relativas a fentanil e análogos, IMFs, produzidos ilegalmente que saturaram o suprimento de drogas ilegais frequentemente encontradas em pó ou prensadas em pílulas falsificadas podendo ser misturadas a outras drogas, recentemente, sedativos não opioides, como xilazina, foram encontrados misturados a IMFs.

Relatório de Mark et al. de 2007 fornece visão das tendências nos gastos com saúde mental e abuso de substâncias, MHSA, com gastos nacionais ao tratamento de distúrbios de MHSA somando US$ 121 bilhões em 2003, acima dos US$ 70 bilhões em 1993 cuja taxa média anual de 5,6% foi mais lenta que o crescimento dos gastos aos serviços médicos, 6,5%, como resultado, gastos com MHSA como parcela dos gastos com saúde caíram para 7,5% dos US$ 1,6 trilhão nos serviços de saúde em 2003, de 8,2% em 1993. De 1993 a 1998, período de rápida expansão do managed care, a taxa de crescimento em gastos com MHSA foi de  3,4%, em comparação com 5,4% aos serviços de saúde, de 1998 a 2003, gastos com MHSA cresceram 7,9%, semelhante aos 7,7% à toda a saúde e, de todos os gastos do MHSA, US$ 100 bilhões foram para saúde mental e US$ 21 bilhões foram à abuso de substâncias. No caso das mortes por overdose de drogas nos EUA, a prevenção e tratamento em evidências funcionam com editorial no BMJ sugerindo que uma redução de 22% nas mortes por overdose de drogas nos EUA em 2023/2024 sinaliza que os investimentos em prevenção de overdose e tratamento de transtornos por uso de substâncias estão funcionando. Diz que evitando uma nova “guerra às drogas” nos EUA, o declínio das mortes por overdose de drogas mostra que abordagens de saúde pública baseadas em evidências funcionam pedindo mais investimento em tratamento e prevenção para acelerar o progresso e rejeitar apelos à táticas de “Guerra às Drogas” que especialistas acreditam  não funcionarem. Resumindo, um retorno às táticas de 'Guerra às Drogas' reverteria o progresso na crise de overdose e tornaria a situação pior, com especialistas da Escola de Enfermagem Johns Hopkins dizendo que “a prevenção e tratamento  em evidências estão funcionando em comunidades no país além do crescente senso na divisão ideológica que esta é a abordagem mais inteligente, enquanto a 'Guerra às Drogas' não era porque focava aplicação da lei, prejudicava comunidades de cor, um desperdício de dinheiro e não funcionava, em era de maior apetite por criminalizar problemas sociais e de saúde aprendemos que o vício é melhor abordado com cuidado, não com condenações.  O editorial explora que está impulsionando o declínio bem-vindo nas mortes e por que em alguns estados as overdoses estão aumentando, analisa como mensagens mais "duras com o crime" podem levar a resposta mais orientada pela aplicação da lei ao uso de drogas e overdoses atrasando o progresso, especialmente em comunidades de cor onde o declínio tem sido mais lento. Explora sucessos existentes de prevenção e tratamento como mudanças nas políticas e práticas de prescrição de medicamentos opioides, acesso expandido a medicamentos para transtornos por uso de opioides e a ampliação de serviços de redução de danos baseados na comunidade e, por fim, observa estratégias para eliminar desigualdades de prevenção e tratamento relacionadas a substâncias como modelos comunitários e familiares de prestação de serviços de prevenção e tratamento em comunidades marginalizadas além de obtenção de força de trabalho de saúde representativa das populações atendidas.

Moral da Nota: estudo de coorte, em população, retrospectivo que incluiu 30.891 indivíduos iniciando o tratamento pela primeira vez, com risco de descontinuação do tratamento maior entre receptores de buprenorfina/naloxona comparado com a metadona em que o risco de mortalidade foi baixo em qualquer forma de tratamento enquanto indivíduos que receberam metadona tiveram risco menor de descontinuação do tratamento em comparação com os que receberam buprenorfina/naloxona além do risco de mortalidade no tratamento semelhante nos medicamentos. Quer dizer, estudos anteriores sobre eficácia comparativa entre buprenorfina e metadona forneceram evidências limitadas sobre diferenças nos efeitos do tratamento entre subgrupos importantes e foram extraídos de populações que usam heroína ou opioides prescritos, embora o uso de fentanil esteja aumentando na América do Norte há o risco de descontinuação do tratamento e mortalidade entre indivíduos recebendo buprenorfina/naloxona versus metadona ao tratamento do transtorno do uso de opioides.


domingo, 30 de março de 2025

Modelos Climáticos

Previsões do tempo nos ajudam decidir fornecendo aviso para otimizar rede elétrica, daí, serviços como o Australian Bureau of Meteorology usam matemática complexa da Terra e atmosfera, ou, modelos climáticos e de tempo, sendo que o mesmo software é usado para prever clima futuro nas próximas décadas ou mesmo séculos, previsões, que permitem planejar, ou evitar, impactos de futuras mudanças climáticas, quer dizer, modelos de clima e tempo são complexos.  O Australian Community Climate and Earth System Simulator, por exemplo, é composto por milhões de linhas de código de computador, sem modelos de clima e tempo, tanto para eventos climáticos de curto prazo quanto a futuro de longo prazo, seria mais complexo que atualmente, cujo funcionamento do clima por exemplo, corresponde o comportamento de curto prazo da atmosfera, temperatura em um determinado dia, vento, se está chovendo e quanto, enquanto o tempo trabalha sobre estatística de longo prazo de eventos climáticos a temperatura típica no verão, ou, com que frequência tempestades e inundações acontecem a cada década, sendo que a razão pela qual usamos as mesmas ferramentas de modelagem ao clima e ao tempo é porque ambas são baseadas nos mesmos princípios físicos. Modelos compilam fatores, radiação solar, fluxo de ar e água, superfície terrestre, nuvens em equações matemáticas resolvidas em pequenas caixas de grade tridimensionais e reunidas para prever o estado futuro, sendo que as caixas são como pixels que se juntam para formar imagem maior, em soluções calculadas no computador onde usar mais caixas de grade, resolução mais fina, melhora respostas, no entanto, consome mais recursos de computação, por isso que as melhores previsões precisam de supercomputador como o Gadi da National Computational Infrastructure em Canberra e, como clima e tempo são governados pelos mesmos processos físicos, podemos usar o mesmo software para prever o comportamento de ambos. Diferenças entre clima e tempo se resumem ao conceito, "inicialização", ou, ponto de partida de um modelo, que em muitos casos, a previsão mais simples ao clima de amanhã é a previsão de "persistência", ou, o clima de amanhã será semelhante ao de hoje, significando que, independentemente quão bom seja seu modelo, se começar com condições erradas, não haverá esperança de prever o amanhã, daí, previsões de persistência são boas para temperatura, menos eficazes à outros aspectos do clima como chuva ou vento e, como esses aspectos são os mais importantes do clima a serem previstos, meteorologistas precisam de métodos mais sofisticados. Modelos climáticos usam matemática complexa com informações climáticas, de ontem e hoje, fazendo daí, boa previsão de amanhã grande melhoria em previsões de persistência, mas não perfeitas, além disso, quanto mais à frente prever, mais informações se perdem sobre o estado inicial e pior a previsão, daí, necessidade de atualizar e executar, ou, na linguagem de modelagem, "inicializar" o modelo regularmente para obter melhor previsão, quer dizer, serviços meteorológicos podem prever com segurança de 3 a  7 dias de antecedência, dependendo da região, da estação e do tipo de sistema climático envolvido. Modelos climáticos produzem tipo e frequência de eventos climáticos, mas não previsão específica do clima real, considerando que o efeito cumulativo desses eventos climáticos produz o estado climático que inclui fatores como temperatura média e probabilidade de eventos extremos, portanto, um modelo climático não nos dá resposta com base em informações meteorológicas de ontem ou de hoje, é executado durante séculos para produzir seu próprio equilíbrio à Terra simulada, também conhecido como sistema terrestre, necessita levar em conta processos adicionais de longo prazo não considerados como, circulação oceânica, criosfera ou partes congeladas do planeta, ciclo natural do carbono e emissões de carbono das atividades humanas. Avanços nos últimos 2 anos na previsão do clima com machine learning, levam modelos baseados em machine learning superar modelos baseados em física, daí, necessidade de serem treinados significando necessidade de ser suplementado pela saída de modelos tradicionais, daí, modelos climáticos e meteorológicos são infraestrutura digital crucial, ferramentas à tomadores de decisão, bem como a cientistas e pesquisadores fornecendo suporte à agricultura, gestão de recursos e desastres, daí, entender como funcionam é vital.

Neste ecossistema, aumento de 0,5°C na temperatura tornará inabitável à humanos área do tamanho dos EUA se o aquecimento global atingir 2°C acima da média pré-industrial, quer dizer, 2024 quebrou todos os recordes de temperatura, a temperatura média global subiu 1,5°C acima da média pré-industrial, enquanto descobertas científicas vinculam ciência do clima físico a risco de mortalidade por calor e à medida que mudanças climáticas continuam piorar com eventos climáticos extremos se tornando norma, estudo revela que aumento de 0,5º C na temperatura fará com que mais partes do planeta se tornem quentes demais à vida humana. Publicado na Nature Reviews Earth and Environment, revelou que a massa de terra que seria quente demais até mesmo à humanos jovens e saudáveis, 18 a 60 anos, que manteriam temperatura corporal segura, deverá triplicar criando área inabitável quase o tamanho dos EUA se o aquecimento global atingir 2°C acima da média pré-industrial. O autor principal do artigo esclarece que “as descobertas mostram consequências potencialmente mortais se o aquecimento global atingir 2°C, com limiares de calor insuportáveis, que até agora foram excedidos apenas brevemente à adultos mais velhos nas regiões mais quentes da Terra, provavelmente surgirão para adultos mais jovens", considerando que 2024 quebrou todos os recordes de temperatura e foi o primeiro ano civil com uma temperatura média global de mais de 1,5°C acima da média pré-industrial. Cientistas distinguem entre limites não compensáveis, além dos quais a temperatura corporal central humana aumenta incontrolavelmente e, limites não sobrevivíveis, onde a temperatura central do corpo aumenta à 42°C em 6 horas, enquanto limites não compensáveis ​​foram ultrapassados ​​à todas as idades e limites não sobrevivíveis até agora foram ultrapassados ​​apenas brevemente à adultos mais velhos, concluindo que, “o que a revisão mostra, que particularmente à níveis mais altos de aquecimento, como 4°C acima da média pré-industrial, impactos do calor extremo na saúde podem ser extremamente ruins”, revelando que, certas regiões correm mais risco de cruzar limites críticos de incompensabilidade e insuportabilidade, com pessoas na África Saariana e Sul da Ásia como as mais expostas, observando que, 3 eventos de calor mais mortais do século XXI causaram quase 200 mil mortes, incluindo 72 mil na Europa em 2003 e 62 mil em na Europa em 2022, sendo que a onda de calor russa de 2010 matou 56 mil.

Moral da Nota: IA é inovação tecnológica impactante, raramente pensamos nas origens, embora associem psicologia à saúde mental, sua influência na criação IA ​​foi fundamental, sendo que a ciência da mente forneceu modelos e teorias que permitiram o desenvolvimento de sistemas inteligentes que imitam o pensamento e tomada de decisões, considerando que no século XX, psicólogos buscaram estudar como o cérebro aprende e processa informações, com Donald Hebb, pioneiro que em 1949 propôs conexões entre neurônios são fortalecidas quando ativados simultaneamente, teoria que inspirou Frank Rosenblatt desenvolver o perceptron, ou, a primeira rede neural artificial, no conceito que máquinas aprendem ajustando conexões entre elementos assim como o cérebro, sendo que o perceptron é marco no desenvolvimento IA, demonstrando que as máquinas podem aprender com a experiência em vez de seguir instruções programadas, embora a tecnologia tivesse limitações nos primórdios, lançou bases às redes neurais modernas. Na década de 1980, David Rumelhart aprimorou o perceptron com método matemático chamado retropropagação, técnica que permitiu redes neurais ajustarem conexões de forma eficiente, abrindo caminho à avanços no aprendizado profundo, em 2024, Hinton recebeu o Prêmio Nobel de Física por seu trabalho em redes neurais, ressaltando a importância da psicologia na evolução IA, sendo que um dos grandes desafios IA ​​é equipar máquinas com raciocínio reflexivo, conhecido como metacognição, conceito introduzido na década de 1970 por John Flavell para descrever capacidade humana de avaliar e melhorar o pensamento, com pesquisas em andamento sobre como incorporar a capacidade aos sistemas IA e melhorar a tomada de decisão, por exemplo, a OpenAI desenvolveu modelos que apresentam melhor desempenho em testes de inteligência fluida avaliando a capacidade de resolver novos problemas sem treinamento prévio. O cientista da computação Edward Lee alertou que exigir explicações de sistemas IA pode ser arriscado com base em pesquisa de Daniel Kahneman ao demonstrar que humanos muitas vezes justificam suas decisões com explicações criadas após o fato que nem sempre reflete seu verdadeiro raciocínio, fenômeno que pode ser transferido à IA gerando justificativas falsas em vez de explicações genuínas, considerando ainda que estudos de Eleanor Maguire mostram que o cérebro humano pode se adaptar a novas tecnologias como observado em taxistas de Londres cujos cérebros são modificados pela memorização de mapas complexos e, à medida que IA avança, é provável que mude o modo como adquirimos conhecimento e resolvemos problemas.