sábado, 5 de outubro de 2024

Diagnóstico e imagem

Redes Neurais Convolucionais, CNNs, são classe de redes neurais profundas projetadas para analisar dados visuais como imagens e vídeos, inspiradas na visão humana, eficazes no reconhecimento de padrões em dados visuais, redefiniram análise e compreensão de imagens permitindo avanços em tarefas como classificação e detecção de imagens e objetos e segmentação semântica estabelecendo a base à ampla gama de aplicações em saúde, veículos autônomos e etc, no entanto, o crescimento da demanda por modelos mais contextuais trouxe à tona limitações na captura de informações levando à necessidade de técnicas inovadoras, aprimorando capacidade da rede de compreender contextos mais amplos sem aumentar complexidade computacional. As CNNs consistem em várias camadas, sendo as camadas convolucionais as principais que realizam operações de convolução, considerando convolução como operador linear combinando 2 funções ou sequências para formar uma terceira, que aplicam filtros aprendíveis aos dados de entrada extraindo características das imagens, neste contexto surge a Convolução Atrous, abordagem disruptiva à normas convencionais das camadas convolucionais das CNNs conhecida como convolução dilatada, introduzindo nova dimensão no aprendizado profundo, permitindo redes capturarem contexto amplo sem aumentar custo computacional ou parâmetros. A convolução atrous, conhecida como dilatada, é um tipo de operação convolucional que introduz um parâmetro chamado de taxa de dilatação, processo que aumenta o campo receptivo dos filtros sem aumentar o número de parâmetros, quer dizer, permite que a rede capture contexto mais amplo dos dados de entrada sem adicionar complexidade, determinando quantos pixels são saltados entre cada etapa da convolução, facilita integração de informações de contexto mais amplo em redes neurais convolucionais, permitindo melhor modelagem de padrões em larga escala nos dados, comumente usada em aplicativos onde o contexto em várias escalas é crucial, como segmentação semântica em visão computacional ou tratamento de sequências em tarefas de processamento de linguagem natural. Melhoram velocidade ao expandir o campo receptivo sem adicionar parâmetros, permitem foco seletivo em regiões específicas de entrada, melhorando eficiência da extração de características e, em complexidade computacional reduzida comparada com convoluções tradicionais é ideal para processamento de vídeo em tempo real e manipulação de conjuntos de dados de imagens em grande escala, têm transformado a segmentação semântica ao capturar informações contextuais sem sacrificar a eficiência computacional. As convoluções dilatadas são projetadas para expandir campos receptivos ao mesmo tempo que mantêm a resolução espacial, tornando-se componentes essenciais de arquiteturas modernas, como o DeepLab, LinkNet e outros e a característica de capturar em múltiplas escalas aprimora compreensão contextual levando a ampla adoção em modelos de segmentação de ponta e nos auxiliando entender imagens complexas em diferentes escalas sem perder detalhes, mantendo a imagem clara e detalhada, facilitando a identificação de cada parte da imagem.

A imagem médica é ferramenta eficaz na detecção precoce do câncer sendo a colonoscopia ótica um tratamento médico que examina variedade de anormalidades na superfície do cólon, incluindo posição, forma e alterações patológicas para fazer diagnóstico clínico e, a análise de imagem histopatológica, HIA, fornece informações críticas ao diagnóstico clínico do câncer colorretal sendo que a classificação precisa de imagens patológicas determinar o curso ideal do tratamento sendo que a avaliação da categorização do tecido é influenciada por parâmetros subjetivos, como resultado, cresce em popularidade e demanda, método consistente e automatizado baseado em diagnóstico auxiliado por computador, CAD. Imagens patológicas oferecem dados cruciais ao diagnóstico clínico do câncer colorretal inseridas em Técnicas de Aprendizado Profundo são aplicadas para aprimorar a classificação e localização do tumor na análise das imagens histopatológicas, além disso, técnicas tradicionais de aprendizado profundo podem perder informações integradas na imagem ao avaliar milhares de manchas recuperadas de imagens de lâminas inteiras, WSIs, daí, pesquisa em desenvolvimento de nova rede de detecção de câncer colorretal, CCDNet, combinando o transformador de atenção coordenada a convolução atrous com transformador de atenção coordenada e imagens histopatológicas. A CCDNet reduz o ruído de entrada da imagem histopatológica usando filtro de meios não locais ponderados de ponto médio, WMW-NLM, para garantir diagnósticos precisos e manter recursos da imagem, seguido de introdução de convolução atrous com transformador de atenção coordenada, AConvCAT combinando vantagens para classificar o tecido colorretal em várias escalas, capturando informações locais e globais integrando transformador de janela em forma de cruz, CrSWin, para capturar pequenas alterações no tecido colorretal de vários ângulos, com taxas de precisão de 98,61% e 98,96%, na imagem histológica colorretal e nos conjuntos de dados NCT-CRC-HE-100 K. O desempenho do CCDNet é validado simulando em linguagem de programação python com a proposta da CCDNet para classificar o tecido colorretal de múltiplas classes utilizando conjuntos de dados publicamente acessíveis, imagens histológicas colorretais e NCT-CRC-HE-100 K, com a biblioteca de ciências médicas do University Medical Center Mannheim, Alemanha, fornecendo 10 lâminas privadas de tecido de câncer colorretal coradas com hematoxilina e eosina, com tumores de grau inferior e superior incluídos nesta categoria cujo conjunto de dados de histologia colorretal consistiu em 5 mil pixels de 150 × 150, divididos em 8 classes não sobrepostas.

Moral da Nota: desenvolvida sobre base de conjunto de dados consistindo em 100 mil imagens de hematoxilina/eosina com tamanho de 224 × 224 pixels, a pesquisa descreve rede de detecção de câncer colorretal para classificar automaticamente o tecido colorretal a partir de imagens histopatológicas, com o módulo MAConv desempenhando papel ao permitir que a rede aprendesse características espaciais locais em diferentes resoluções e tamanhos, aumentando o campo receptivo, em que o aprendizado profundo é aplicado para fundir recursos de dados de imagens histopatológicas em várias escalas construindo vetor de recursos de alta qualidade mais discriminador superando desvantagens da análise de recursos individuais. Os resultados da simulação demonstram que a técnica de fusão de recursos em várias escalas diferencia facilmente tecidos colorretais das imagens histopatológicas e, conforme resultados do estudo, o CCDNet tem taxa de precisão de 98,61% no conjunto de dados de histologia colorretal e 98,96% no conjunto de dados NCT-CRC-HE-100 K para detectar câncer de tecido colorretal.