Mostrando postagens com marcador #ML. Mostrar todas as postagens
Mostrando postagens com marcador #ML. Mostrar todas as postagens

quarta-feira, 22 de janeiro de 2025

Aprendizado de máquina

Recomendações da Netflix para séries que possamos gostar de assistir ou aplicativos de smartphone como Siri, mostram ação IA tornando-se necessidade ao público que busca nova invenção como o aprendizado de máquina quântico que revoluciona a estrutura social quando for inventado, integrando 2 campos, a computação quântica e aprendizado de máquina em que computadores quânticos utilizam bits quânticos ou qubits, enquanto computadores clássicos trabalham com bits de dados, esses qubits podem estar em muitos estados ao mesmo tempo por causa da superposição e emaranhamento ao passo que computadores quânticos podem processar big data e resolver problemas de modo rápido. Impacta o aprimoramento da precisão, eficácia e eficiência dos algoritmos atuais de aprendizado de máquina enquanto a computação quântica pode ser usada para realizar operações complexas rápidas em larga escala, além de superar questões, sugerindo novos problemas e campos onde técnicas da computação quântica podem ser aplicadas, abrindo perspectivas no campo IA, portanto, observar oportunidades do aprendizado de máquina quântica importa entender como o conceito se insere no contexto geral IA. Daí, sinergia multidisciplinar com implementação do aprendizado de máquina auxiliada por computadores com conceitos  de IA e física quântica, constituindo o aprendizado de máquina quântica, dessa forma, sinergia poderosa é gerada que permite algoritmos quânticos como Variational Quantum Eigensolver (VQE), Quantum Approximate Optimization Algorithm (QAOA) resolvam questões de otimização e auto valor mais rápidos que algoritmos clássicos aprimorando operações que incluem classificação, ordenação e estimativa, possibilitando desenvolver operações sofisticadas de aprendizado de máquina. Avanços Algorítmicos que QML traz abordagens de algoritmos, por exemplo, QSVM e QNN, com Redes neurais qubit na forma de análogos clássicos nos princípios da mecânica quântica para processar informações, com a esperança de atingir taxas melhores de convergência à inferência e treinamento, além disso, o QSVM se diferencia dos SVMs padrão e aprimora características de desempenho de diferenciação entre padrões de dados complexos pela capacidade dos kernels quânticos que podem mapear dados no espaço de recursos quânticos de alta dimensão. Por fim, seguem a escalabilidade e eficiência para abordar com ajuda de computadores quânticos conjuntos de dados de grandes dimensões além de mitigação de Erros e Tolerância a Falhas ao fazer transição à computação quântica mais próxima de plataformas físicas, inseridos em questões  éticas como segurança de tecnologias, privacidade de dados e impacto IA exigindo influência de regulamentações e abertura para serem usadas em benefício da sociedade. 

Casos de usos para aprendizado de máquina quântica aponta à futuro brilhante IA em ampla gama de aprendizado de máquina quântica na Assistência médica, descoberta de medicamento, em que computadores quânticos são capazes de replicar reações químicas em nível nunca visto ajudando analisar informações genéticas e moleculares e agilizar processo de desenvolvimento de novos fármacos, além da Medicina Personalizada em que o uso de técnicas de QML contribui à criação de programas individuais ao tratamento de pacientes com base na análise de grandes conjuntos de dados genéticos. No financiamento a Análise e gerenciamento de riscos em que  o QML fornece perspectivas sobre análise de riscos, apropriação indébita e negociação algorítmica devido sua capacidade de considerar dados econômicos estruturais complexos, na  Segurança cibernética em que segurança e criptografia de dados na criptografia quântica, levam a proteção contra computadores quânticos em rápido desenvolvimento através de nova maneira, enquanto na Logística se inserem em Problemas de otimização implementando algoritmos quânticos e possibilitando determinar meios mais eficientes de distribuir produtos e atingir potenciais consumidores e clientes, bem como fornecer custos. Dentre os desafios, se destacam as restrições de hardware, no entanto, a maior probabilidade de coerência quântica e suscetibilidade a erros nos computadores quânticos existentes atualmente tornam impossíveis grande número de aplicações na vida real, já, a escalabilidade, é difícil escalar computadores quânticos para grande quantidade de qubits mantendo estabilidade e coerência, um dos maiores desafios técnicos e o desenvolvimento de algoritmos em que muitos desses algoritmos quânticos ainda são de natureza teórica, mais trabalho ou mesmo aplicação precisam ser feitos. Quanto ao futuro, é seguro dizer que o futuro do aprendizado de máquina quântica é brilhante com estudos existentes focando no aprimoramento da computação quantitativa e eliminação de desafios, assim, presumir que o papel IA com a computação quântica e ajuda de algoritmos mais complexos e melhores equipamentos, auxilia no futuro resolver os principais problemas que as empresas modernas enfrentam, sendo que a supremacia quântica no aprendizado de máquina é o cenário  que os computadores quânticos resolvem problemas específicos de aprendizado de máquina mais rapidamente que computadores clássicos enquanto modelos híbridos são combinações de computadores quânticos e clássicos que proporciona maior precisão e desempenho.  O Quantum Machine Learning, QML, combina poder da computação quântica com o machine learning, prometendo entregar velocidade, precisão e escala em que computadores quânticos, usando superposição e emaranhamento, lidam com conjuntos de dados massivos e cálculos complexos exponencialmente mais rápido que computadores clássicos e as aplicações abrangem tudo, desde acelerar descoberta de medicamentos e medicina personalizada a análise de risco em finanças e segurança cibernética por meio da criptografia quântica e, à medida que o QML amadurece, é enorme seu impacto IA e na sociedade, remodelando indústrias abrindo fronteiras de inovação tecnológica e solução de problemas com privacidade e segurança dos dados importantes à medida que os aplicativos QML crescem.

Moral da Nota:  IA promete eficiência na velocidade da luz à empresas e consumidores e alimentar essa tecnologia requer quantidades de energia em treinamento de modelos, avaliação ou otimização do desempenho, ou mesmo, mantendo-o, dar suporte à IA consome grandes quantidades de watts, esse consumo suporta soluções IA em aumento exponencial levantando preocupações ambientais já que a compreensão do consumo de energia IA ​​é relevante não apenas aos construtores da tecnologia mas à todos que interagem com ela. Daí, modelos  IA particularmente os modelos de linguagem grande, LLMs, consomem energia devido ao hardware e à infraestrutura  necessários para processar cálculos complexos, com  demandas de energia IA ​​levantando preocupações ambientais que podem ser amenizadas com uso de hardware eficiente em termos de energia, técnicas de otimização e dependência de fontes de energia renováveis ​​à data centers, sendo que o futuro  IA ​​depende encontrar equilíbrio entre avanços tecnológicos e sustentabilidade ambiental, cujos padrões internacionais serão importante impulsionador da implantação sustentável e responsável de sistemas IA.  O consumo de energia IA se refere à quantidade de eletricidade necessária para executar sistemas IA, do treinamento à implantação e manutenção em que grandes modelos como GPT-4 ou DALL-E exigem quantidade de recursos de computação para serem executados com sucesso, sendo que a versão atual do ChatGPT com tecnologia GPT-4, por exemplo, tem 1,8 trilhão de parâmetros que ajudam determinar como responde às entradas, para contextualizar, é 6 vezes maior que os 175 bilhões de parâmetros do GPT-3 e 1.200 vezes maior  que o GPT-2, necessitando a mesma quantidade de energia para treinar o GPT-3 que 120 lares americanos médios consomem em 1 ano. O desafio daqui será aproveitar o potencial IA, ao mesmo tempo, entender que isso tem custo ambiental enquanto IA é capaz de melhorar a saúde, finanças e educação necessitando maneiras de garantir que os avanços ​​não comprometam o ambiente, a saúde e o futuro e, para atingir esse equilíbrio, serão necessárias abordagens práticas como novos métodos em eficiência algorítmica e design de hardware com eficiência energética, mas, em sentido mais amplo, as empresas devem entender as implicações do uso IA ​​em termos de recursos naturais e ambiente.


             

terça-feira, 10 de outubro de 2023

Blockchain e ML

Através de algoritmos, computadores podem analisar, categorizar e fazer previsões e, inserido em  Machine Learning, tecnologia cada vez mais comum que permite algoritmos trabalhar usando grandes conjuntos de dados, sendo menos complexo e menos poderosa que tecnologias relacionadas, empregado por grandes empresas no mundo. O Machine Learning, ML,  foi projetada para ajudar computadores aprender de modo semelhante como o cérebro humano aprende, usando conjuntos de dados e algoritmos, modelos, para analisar e categorizar dados ou fazer previsões e quanto mais um modelo de aprendizado de máquina é usado, mais dados  processa, melhor fica nas tarefas podendo otimizar por conta própria e ser atualizados por humanos. Ao contrário de Deep Learning, Machine Learning não usa redes neurais, embora esteja relacionada a desenvolvimentos como IA, não é tão avançado nem tão poderosa quanto essas tecnologias, ao passo que o aprendizado de máquina existe desde a década de 1960 e, cada vez mais utilizado,  com 70% das empresas de serviços financeiros usando de alguma forma ML de acordo com algumas medidas. Machine Learning começa com 2 elementos, algoritmo e conjunto de dados, sendo que o algoritmo instrui o modelo ML sobre o que fazer, analisar imagens, detectar padrões, fazer previsões e o conjunto de dados pode ou não ser classificado ou rotulado para auxiliar o algoritmo que processa os dados para produzir  saída. Quanto mais dados o algoritmo processa, mais preciso se torna e  normalmente, o modelo faz melhorias com base na lógica integrada, enquanto humanos podem atualizar o algoritmo ou fazer alterações para melhorar a qualidade da saída, daí, o significado de "aprender", enquanto seres humanos aprendem conceitos ou habilidades básicas e melhoram por meio da repetição e extrapolação, esse é o objetivo do ML.  Programas de computador são projetados à executar determinada função, relativamente limitada e só mudam quando o programador as altera e, com ML, o modelo é projetado para mudar baseado na experiência com mais dados e tarefas, por exemplo, um algoritmo de detecção de imagem analisa fotos contendo pessoa com cabelo ruivo e na primeira vez que o modelo for usado, sua saída será menos precisa que na 2ª vez, e a 3ª vez ainda mais precisa,  acontecendo porque o modelo desenvolve melhores técnicas para distinguir um humano de uma árvore ou uma vaca e distinguir cabelos ruivos de cabelos loiros.

É fato que a Blockchain é tendência nos últimos anos, permitindo modo seguro aos indivíduos lidarem uns com os outros através de sistema descentralizado e sem intermediários, além de seus próprios recursos, o aprendizado de máquina ajuda lidar com limitações que sistemas em blockchain têm e a combinação dessas 2 tecnologias, Machine Learning e Blockchain Technology,  fornece resultados úteis  de alto desempenho. A ideia básica por trás da blockchain é descentralizar o armazenamento de dados para que não possam ser de propriedade ou gerenciados por determinado ator,  podendo ser atualizado por planilha de transações, onde uma vez anotada, não pode ser modificada, posteriormente, a próxima transação precisa ser verificada antes de entrar na planilha por parte confiável e a única diferença é que o novo conjunto de registros é verificado pela arquitetura descentralizada de 'nós',  não havendo  parte centralizada específica necessária para verificar os registros. Considerado como o conjunto de vários blocos interligados onde o fluxo de dados é mantido, a blockchain envolve o bloco atual contendo o hash de seu bloco anterior e assim por diante e o uso desse tipo de mecanismo blockchain do sistema se torna rastreável em termos de dados e transações e, em vez disso, são resistentes a alterações em que o blockchain mais antigo não pode ser alterado e ainda há alterações realizadas no bloco. Um blockchain consiste em 3 componentes importantes, ou, Blocos, onde cada bloco possui 3 elementos básicos ou DataNonce, um número inteiro de 32 bits e gerado aleatoriamente com a geração de um bloco e, sempre que em uma cadeia um bloco é criado, o nonce gera o hash criptográfico assinado e vinculado aos dados do bloco e a mineração dos dados do bloco faz com que o nonce e o hash sejam desvinculados dos dados. O 2º componente envolve os Mineradores responsáveis ​​por criar novos blocos na cadeia através de um processo chamado mineração exigindo técnicas especiais para resolver a matemática complexa em encontrar um nonce que responda pela geração de um hash existindo bilhões de combinações possíveis de nonce e hash que precisam ser extraídas até que a combinação certa seja encontrada. Por fim, os 'Nós' sendo que nenhum possui todas as informações podendo ser considerados como um dispositivo que guarda a cópia da blockchain e faz com que a cadeia ou rede funcione nas direções necessárias e cada nó possui uma cópia da blockchain e a rede está configurada para aprovar qualquer bloco recém-extraído à cadeia como atualizado, confiável e verificado, daí, a transparência das blockchains tornar impossível verificar ou visualizar todas as ações no livro-razão e cada participante da cadeia possui um número de identificação único que mostra suas transações na cadeia. Em vista disso, emergem aplicações blockchain como, negociação segura de dados, transferência de dinheiro transfronteiriça, sistema operacional IoT em tempo real, monitoramento logístico e da cadeia de suprimentos, troca de criptomoedas e segurança de identidade pessoal. Há muitos benefícios de usar modelos de aprendizado de máquina na tecnologia blockchain como a autenticação do usuário autorizado, fácil, quando estão tentando fazer alterações na blockchain e, usando ML, acontece alta faixa de segurança e confiança e, a integração de modelos de ML ajuda garantir condições  acordadas anteriormente.  Pode ainda haver aplicações de aprendizado de máquina e sistemas integrados blockchain como o atendimento aprimorado tornando o serviço eficiente e automatizado, a negociação de dados torna o serviço mais rápido usando modelos de ML na blockchain, na fabricação de produtos com a maioria das unidades de fabricação ou organizações trabalhando com procedimentos blockchain para aprimorar as verificações de produção, segurança, transparência e conformidade.  Por fim, o sistema de vigilância, preocupação devido o aumento da taxa de criminalidade no cenário atual,  ML e Blockchain podem ser usados ​ para gerenciar os dados contínuos e ML analisar os dados.

Moral da Nota: usando algoritmos de aprendizado de máquina, cientistas identificaram quais áreas da Reserva da Biosfera de Sundarban devem ser priorizadas para medidas de conservação. Sundarban, maior floresta de mangue do mundo espalhada por mais de 10 mil km2 na Índia e Bangladesh, diminuiu nas últimas décadas, com os  pesquisadores do WWF-Índia, Jamia Millia Islamia, em Delhi, e da Universidade de Manchester, no Reino Unido, através de imagens Landsat marcaram áreas do lado indiano da reserva que se degradaram entre 1975 e 2020. Dividiram a floresta em 5.609 grades e 36 parâmetros cobrindo aspectos físicos, ambientais, solo, água, bioclimáticos e perturbação para avaliar a adequação do habitat e usaram uma função de sobreposição de nicho e classes de adequação de habitat baseadas em grade para identificar qual espécie de mangue era melhor para cada área na grade de prioridade, com quase metade das grades,1.203 km2, considerada adequada para replantio com 18 espécies de mangue.


terça-feira, 29 de agosto de 2023

Nova fronteira

A maior parte dos especialistas no domínio do aprendizado de máquina, preferem a linguagem Python de programação considerando papel fundamental ao permitir análise de dados, desenvolvimento de algoritmos e treinamento de modelos. O destaque como escolha preferida decorre ao fato que muitos cientistas de dados, engenheiros e pesquisadores preferem a versatilidade, extensas bibliotecas e facilidade de utilização que a impulsionam à vanguarda do cenário de aprendizado de máquina. Conceitualmente Python é linguagem de programação versátil de alto nível conhecida pela simplicidade e legibilidade, amplamente utilizado em domínios incluindo desenvolvimento web, análise de dados, computação científica e automação com amplo ecossistema de bibliotecas oferecendo funções e ferramentas pré-construídas que simplificam a codificação. A sintaxe permite desenvolvedores expressar conceitos de modo conciso aumentando produtividade contribuindo ao crescimento e adaptabilidade à diversos aplicativos, indispensável no domínio do aprendizado de máquina decorrente qualidades essenciais. A programação em Python possui sintaxe legível que reduz a complexidade, facilita o desenvolvimento e colaboração além de ecossistema de bibliotecas incluindo NumPy e scikit-learn que oferece ferramentas para manipulação de dados, análise e algoritmos de aprendizado de máquina. O código aberto da linguagem incentiva contribuições da comunidade, levando a avanços contínuos sendo que a compatibilidade e suporte multiplataforma permitem integração com outras tecnologias capacitando experimentação e refinamento, qualidades ao aprendizado de máquina que impulsiona inovação setorial.

Neste ecossistema, o aprendizado de máquina e IA revolucionam  setores e o campo da análise de evidências digitais não é exceção, com rápido crescimento dos dados, a crescente complexidade dos crimes cibernéticos criando necessidade de métodos eficientes e precisos de análise de evidências digitais e, como resultado, as agências de aplicação da lei, investigadores forenses e profissionais jurídicos cada vez mais recorrem ao aprendizado de máquina e tecnologias IA aprimorando capacidades na análise de evidências digitais. O aprendizado de máquina, subconjunto da IA, refere-se a processo em que computadores aprendem com dados sem serem explicitamente programados, daí, potencial de melhorar velocidade e precisão da análise de evidências digitais, automatizando a identificação, extração e análise de dados de grandes quantidades de informações digitais.  Por outro lado, IA abrange tecnologias que permitem computadores executarem tarefas que normalmente requerem inteligência humana, como raciocínio, aprendizado e solução de problemas. Um dos desafios na análise de evidências digitais é o grande volume de dados que investigadores devem examinar para encontrar informações relevantes decorrente a proliferação de smartphones, mídias sociais e armazenamento em nuvem em que dados digitais gerados diariamente impressiona os métodos tradicionais de análise de evidências digitais, geralmente envolvendo exame manual de dados por especialistas, cada vez mais demorados, com uso intensivo de recursos. Os algoritmos de aprendizado de máquina automatizam o processo de identificação e extração de dados de grandes conjuntos, por exemplo, algoritmos de aprendizado de máquina podem ser treinados para reconhecer padrões e anomalias em dados como padrões de comunicação suspeitos ou atividades incomuns de acesso a arquivos, reduzindo o tempo e esforço para analisar evidências digitais permitindo que investigadores se concentrem nos aspectos mais críticos de um caso. Outra área que o aprendizado de máquina e IA desempenham  papel crucial é na análise de evidências multimídia como imagens e vídeos decorrente a crescente prevalência da tecnologia deepfake, que usa IA para criar falsos vídeos e imagens realistas, levantando preocupações sobre potencial de adulteração das evidências digitais. Os algoritmos de aprendizado de máquina são usados para detectar deepfakes analisando inconsistências e artefatos sutis presentes nesses arquivos de mídia manipulados podendo ainda ser usados para aprimorar recursos das ferramentas forenses digitais, por exemplo, ferramentas baseadas em IA ajudando investigadores  reconstruir arquivos excluídos ou danificados, recuperar dados perdidos de dispositivos criptografados e prever prováveis ações de cibercriminosos com base em comportamento anterior podendo fornecer informações que ajudem na resolução bem-sucedida de casos de crimes cibernéticos. O aprendizado de máquina e IA representam nova fronteira na análise de evidências digitais, oferecendo potencial de melhoria da velocidade, precisão e eficiência das investigações forenses automatizando identificação e extração de dados, analisando evidências de multimídia e aprimorando recursos das ferramentas forenses digitais.

Moral da Nota:  a IA pode ajudar localizar o ponto de origem de um câncer particularmente nos casos que o tumor já se espalhou e os médicos não podem determinar onde o câncer começou, chamados “cânceres com tumor primário desconhecido”, é o que nos explica o estudo publicado na revista acadêmica Nature Medicine, sob o título "Aprendizado de máquina à classificação baseada em genética e previsão de resposta ao tratamento em câncer de primário desconhecido".  A falta desse conhecimento impede administrar medicamentos de “precisão” geralmente aprovados para tipos específicos de câncer conhecidos por funcionar com mais eficácia tendendo ser mais eficazes e causando menos efeitos colaterais. A técnica desenvolvida por pesquisadores do Massachusetts Institute of Technology, MIT, e do Dana-Farber Cancer Institute, nos EUA, facilita identificação da origem dos cânceres usando aprendizado de máquina em que a equipe criou modelo computacional em aprendizado de máquina que analisa sequência de 400 genes e usa a informação para localizar onde determinado tumor se originou. Os pesquisadores demonstraram que podiam classificar 40% dos tumores de origem desconhecida em conjunto de dados de 900 pacientes, permitindo aumento 2,2 vezes no número de pacientes que poderiam ter sido selecionados à tratamento geneticamente direcionado com base na origem do tumor. 


segunda-feira, 14 de agosto de 2023

Machine learning

IA, inteligência artificial, é sistema único ou coleção de sistemas computacionais capaz de processar informações e executar tarefas normalmente feitas por humanos, podendo ter formas simples de inteligência, como reconhecer fala ou analisar padrões visuais em imagens ou ser mais complexo, como aprender com erros do passado e resolver problemas. O significado de inteligência artificial passa pela observação na natureza que convence algo que tem inteligência, tão simples quanto um rato de laboratório aprender o caminho correto no labirinto representando modo simples de inteligência, sendo que existem 4 tipos de IA envolvendo memória e aprendizado, semelhantes à inteligência humana. Alan Turing em1950, em as "máquinas pensantes" escreveu como reconhecíveis usando razão para resolver quebra-cabeças e, na década de 1950, John McCarthy avaliou que computadores iam "fazer coisas que, quando feitas por pessoas, falam em envolver inteligência".

Existem 3 características usadas para identificar máquina ou computador como tendo "inteligência artificial", ou, usar entradas como sensores ou dados para analisar informações processando grandes quantidades de dados para identificar padrões, tendências ou correlações e, por fim, adaptar as decisões e ações com base em aprendizados derivados de insumos e dados, deste modo, a inteligência artificial ajuda humanos a aprender e se adaptar em vidas diárias. O Machine Learning, ML,  parte de 2 elementos, ou,  um algoritmo e um conjunto de dados, com o algoritmo instruindo o modelo ML sobre o que fazer, analisar imagens, detectar padrões, fazer previsões,  com conjunto de dados podendo ou não ser classificado ou rotulado para auxiliar o algoritmo que processa os dados para produzir uma saída. Daí,  quanto mais dados o algoritmo processa, mais preciso ele se torna e,  normalmente, o modelo faz melhorias com base na lógica integrada, embora os humanos possam atualizar o algoritmo ou fazer alterações para melhorar a qualidade da saída, aí, o significado significado "aprender".  O  humanos aprendem conceitos ou habilidades básicas e melhoram via repetição e extrapolação, sendo que esse também é o objetivo do ML, em programas de computador tradicionais projetados para executar determinada função, relativamente limitadas, só podendo mudar quando um programador as altera, com ML, o modelo é projetado para mudar com base na experiência com mais dados e tarefas. Quando um algoritmo de detecção de imagem analisa fotos contendo uma pessoa com cabelo ruivo, na 1ª vez que o modelo for usado sua saída será menos precisa que na 2ª vez, e a 3ª vez será mais precisa, essa melhoria acontece porque o modelo desenvolve técnicas para distinguir um humano de uma árvore ou uma vaca e distinguir cabelos ruivos de cabelos loiros. Há subtipos dentro de cada categoria, os 4 tipos principais de aprendizado de máquina são ML supervisionado: usando dados rotulados e estruturados e a intervenção mais humana para encontrar padrões que o criador do modelo procura, melhor usado à tarefas simples e automatizadas, com regras definidas e compreendidas onde há muitos dados disponíveis. Outro tipo de ML é o não supervisionado ao contrário supervisionado, nenhum dado rotulado ou estruturado está disponível, o modelo detecta padrões e tira conclusões com base nos dados incluindo coisas que o criador procura, usado para detectar padrões e classificar como agrupar clientes com base no comportamento e, em seguida, executar ações com base nesses padrões. Outro tipo de ML é o semi-supervisionado que combina os 2 tipos acima treinando o modelo com dados rotulados e fazendo com que processe dados não rotulados, o semi-supervisionado é útil quando não há dados rotulados suficientes ou quando sua geração impraticável. Por fim, o reforço ou tipo de ML baseado em recompensas ou feedback positivo, melhor usado para sistemas onde facilmente define respostas certas/erradas e onde há melhor ação em um dado, sendo que os modelos de ML que jogam jogos como xadrez são modelos de reforço.

Moral da Nota:  aplicativos de aprendizado de máquina incluem usos comuns através de algoritmos de recomendação em que os recursos de detecção e categorização de padrões dos modelos de ML estão no centro dos algoritmos que recomendam conteúdo ou produtos, reconhecimento de fala usando ML para software de conversão de texto em fala e aplicativos de processamento de linguagem natural, outra utilização é o Chatbot usado para vendas e atendimento ao cliente especialmente aqueles que são árvores de decisão simples em ML, há ainda, a visão computacional dando aos computadores capacidade de "ver" e entender imagens complexas quanto veículos autônomos ou simples quanto analisar fotos dependendo do aprendizado de máquina e na detecção de Fraude e Anti-Spam buscando padrões que auxilia empresas de serviços financeiros sinalizar transações potencialmente fraudulentas permitindo que a conta de e-mail remova o spam de sua caixa de entrada. Machine Learning é  tecnologia comum que permite  algoritmos analisar, categorizar e fazer previsões usando conjuntos de dados, sendo menos complexa e menos poderosa que tecnologias relacionadas. Projetada para ajudar computadores aprender de modo semelhante à maneira como o cérebro humano aprende usando conjuntos de dados e algoritmos, modelos, para analisar e categorizar dados ou fazer previsões e, quanto mais um modelo de aprendizado de máquina é usado, mais dados processa, melhor fica nas tarefas e os modelos podem melhorar por conta própria ou ser atualizados por humanos. Ao contrário de Deep Learning, o Machine Learning não usa redes neurais, embora relacionado a desenvolvimentos como  IA não é tão avançado e poderoso quanto essas tecnologias, sendo que o aprendizado de máquina existe desde a década de 1960 e cada vez mais utilizado com cerca de 70% das empresas de serviços financeiros usando de alguma forma a ML.


sábado, 25 de fevereiro de 2023

Machine learning

Técnicas de Machine Learning, ML, eliminam problemas críticos em criptomoeda e blockchain com Bitcoin e Ethereum buscando preços mais altos. Com o lançamento de novas versões, o mercado torna-se mais competitivo, especialmente NFTs como fator adicional, sendo que blockchain e criptomoedas, como qualquer tecnologia, apresentam preocupações de segurança com o aprendizado de máquina usado de modo eficiente.

Criptomoedas interagem com blockchain, tecnologia com registro de transações oportunas, cujos livros descentralizados são compartilhados globalmente em computadores ou livros-razão não operados por autoridade central ou banco. O Bitcoin, primeira blockchain a ser criada, cujas realizações de Satoshi Nakamoto resolveram a questão dos gastos duplos em projetos de caixa digital registrando transações na rede, portanto, a tentativa de reutilizar Bitcoin, será facilmente descoberta. O conceito criado por Satoshi não era novo, com sistemas de prova de trabalho existindo antes da chegada do Bitcoin em 2008 mas nunca colocado em uso, sendo que atualmente criptomoedas usam blockchain para verificar transações e publicá-las em rede pública, tarefa executada por mineradores de criptografia que também possuem outra finalidade. No lançamento do Bitcoin seu valor era nada comparado ao que é agora, aumentando por causa dos mineiros e corrida à validar blocos e ganhar recompensas, emergindo daí novo problema, ou, a mineração exige energia e conseqüentemente a prova de trabalho recebe críticas de ambientalistas.

Moral da Nota: a aprendizagem de reforço para negociação com bots de negociação ​​no mercado de ações movidos por algoritmos de aprendizado de máquina, permite utilização de técnicas de ML no mercado de criptografia para negociação. A negociação de criptomoedas como Bitcoin e Ethereum tornou popular entre investidores de varejo e grandes instituições financeiras o aprendizado por reforço, desenvolvendo estratégias de negociação para experiência lucrativa e adaptável. A mineração de criptomoedas se relaciona ao uso de recursos de computação para resolver função blockchain, com mineiros recompensados ​​pelo esforço com recompensas em bloco, daí, quanto mais poderoso o computador mais fácil  resolver as funções de blockchains. A otimização do esforço de mineração evitando uso indevido de recursos de mineração, faz emergir técnicas de ML cujos algoritmos de aprendizado de reforço tradicionais maximizam recompensas com melhores estratégias de mineração. A questão da segurança na mineração de criptomoedas preocupa Instituições acadêmicas e agências de governo com infraestruturas de computação tornando alvo ao criptojacking. O aprendizado profundo detecta presença de programas maliciosos destinados a sequestrar recursos de computação, sendo que os aplicativos de aprendizado de máquina blockchain e criptomoedas avançam além da previsão de preços, daí, a ML deter capacidade de responder à questões de segurança através do aprendizado profundo e aprendizado de reforço, otimizando funções de negociação e mineração de criptografia.