A IA corta, flui e fica verde – TechCrunch
[ad_1]
A pesquisa no campo de aprendizado de máquina e IA, agora uma tecnologia-chave em praticamente todos os setores e empresas, é volumosa demais para que qualquer um leia tudo. Esta coluna tem como objetivo coletar algumas das descobertas e artigos recentes mais relevantes – particularmente, mas não limitado a, inteligência synthetic – e explicar por que eles são importantes.
Esta semana, os aplicativos de IA foram encontrados em vários nichos inesperados devido à sua capacidade de classificar grandes quantidades de dados ou, alternativamente, fazer previsões sensatas com base em evidências limitadas.
Vimos modelos de aprendizado de máquina assumindo grandes conjuntos de dados em biotecnologia e finanças, mas pesquisadores da ETH Zurich e da LMU Munich estão aplicando técnicas semelhantes para os dados gerados por projetos internacionais de ajuda ao desenvolvimento como ajuda em desastres e habitação. A equipe treinou seu modelo em milhões de projetos (no valor de US$ 2,8 trilhões em financiamento) dos últimos 20 anos, um enorme conjunto de dados complexo demais para ser analisado manualmente em detalhes.
“Você pode pensar no processo como uma tentativa de ler uma biblioteca inteira e classificar livros semelhantes em prateleiras de tópicos específicos. Nosso algoritmo leva em consideração 200 dimensões diferentes para determinar a semelhança entre esses 3,2 milhões de projetos – uma carga de trabalho impossível para um ser humano”, disse o autor do estudo, Malte Toetzke.
Tendências de alto nível sugerem que os gastos com inclusão e diversidade aumentaram, enquanto os gastos com clima, surpreendentemente, diminuíram nos últimos anos. Você pode examinar o conjunto de dados e as tendências que analisaram aqui.
Outra área em que poucas pessoas pensam é o grande número de peças e componentes de máquinas que são produzidos por várias indústrias em um ritmo enorme. Alguns podem ser reutilizados, alguns reciclados, outros devem ser descartados com responsabilidade – mas há muitos para especialistas humanos analisarem. A empresa alemã de pesquisa e desenvolvimento Fraunhofer tem desenvolveu um modelo de aprendizado de máquina para identificar peças para que possam ser usados em vez de irem para o ferro-velho.
Créditos da imagem: Fraunhofer
O sistema se baseia em mais do que as visualizações de câmeras comuns, uma vez que as peças podem parecer semelhantes, mas muito diferentes, ou ser idênticas mecanicamente, mas diferem visualmente devido à ferrugem ou desgaste. Assim, cada peça também é pesada e digitalizada por câmeras 3-d, e metadados como origem também estão incluídos. O modelo então sugere o que ele pensa que a peça é para que o humano que a inspeciona não exact começar do 0. Espera-se que dezenas de milhares de peças sejam salvas em breve e o processamento de milhões acelerado, usando esse método de identificação assistido por IA.
Os físicos encontraram uma maneira interessante de trazer as qualidades do ML para lidar com um problema secular. Essencialmente, os pesquisadores estão sempre procurando maneiras de mostrar que as equações que governam a dinâmica dos fluidos (algumas das quais, como a de Euler, datam do século 18) são incompletas – que quebram em certos valores extremos. Usando técnicas computacionais tradicionais, isso é difícil de fazer, embora não impossível. Mas pesquisadores do CIT e da Grasp Seng College em Hong Kong propõem um novo método de aprendizado profundo para isolar casos prováveis de singularidades de dinâmica de fluidos, enquanto outros estão aplicando a técnica de outras maneiras no campo. Este artigo do Quanta explica muito bem esse desenvolvimento interessante.
Outro conceito centenário de obter uma camada ML é o kirigami, a arte de cortar papel com a qual muitos estarão familiarizados no contexto da criação de flocos de neve de papel. A técnica remonta a séculos no Japão e na China em specific e pode produzir estruturas notavelmente complexas e flexíveis. Pesquisadores do Argonne Nationwide Labs se inspiraram no conceito para teorizar um subject material 2D que podem reter eletrônicos em escala microscópica, mas também se flexionam facilmente.
A equipe estava fazendo dezenas de milhares de experimentos com 1-6 cortes manualmente e usou esses dados para treinar o modelo. Eles então usaram um supercomputador do Departamento de Energia para realizar simulações até o nível molecular. Em segundos, produziu uma variação de 10 cortes com 40% de elasticidade, muito além do que a equipe esperava ou mesmo tentou por conta própria.
Créditos da imagem: Laboratórios Nacionais de Argonne
“Ele descobriu coisas que nunca dissemos para descobrir. Ele aprendeu algo da mesma forma que um humano aprende e usou seu conhecimento para fazer algo diferente”, disse o líder do projeto Pankaj Rajak. O sucesso os estimulou a aumentar a complexidade e o escopo da simulação.
Outra extrapolação interessante feita por uma IA especialmente treinada tem um modelo de visão computacional reconstruindo dados de cores a partir de entradas infravermelhas. Normalmente, uma câmera capturando IR não saberia nada sobre a cor de um objeto no espectro visível. Mas este experimento encontrou correlações entre certas bandas de IR e as visíveis, e criou um modelo para converter imagens de rostos humanos capturadas em IR em imagens que se aproximem do espectro visível.

Ainda é apenas uma prova de conceito, mas essa flexibilidade de espectro pode ser uma ferramenta útil em ciência e fotografia.
—
Enquanto isso, um novo estudo de coautoria do líder de IA do Google, Jeff Dean, contesta a noção de que a IA é um empreendimento ambientalmente caro, devido aos seus altos requisitos de computação. Enquanto algumas pesquisas descobriram que treinar um modelo grande como o GPT-3 da OpenAI pode gerar emissões de dióxido de carbono equivalente ao de um pequeno bairro, o estudo afiliado ao Google afirma que “seguir as melhores práticas” pode reduzir as emissões de carbono do aprendizado de máquina em até 1.000 vezes.
As práticas em questão dizem respeito aos tipos de modelos usados, as máquinas usadas para treinar modelos, “mecanização” (por exemplo, computação na nuvem as opposed to computadores locais) e “mapa” (escolher locais de information facilities com a energia mais limpa). De acordo com os coautores, a seleção de modelos “eficientes” por si só pode reduzir a computação por fatores de 5 a ten, enquanto o uso de processadores otimizados para treinamento de aprendizado de máquina, como GPUs, pode melhorar a relação desempenho por Watt por fatores de 2 a 5.
Qualquer segmento de pesquisa sugerindo que o impacto ambiental da IA pode ser reduzido é motivo de comemoração, de fato. Mas deve-se ressaltar que o Google não é um partido neutro. Muitos dos produtos da empresa, do Google Maps ao Google Seek, contam com modelos que exigiam grandes quantidades de energia para serem desenvolvidos e executados.
Mike Prepare dinner, membro do grupo de pesquisa aberta Knives and Paintbrushes, aponta que – mesmo que as estimativas do estudo sejam precisas – há simplesmente não é uma boa razão para uma empresa não escalar de forma ineficiente em termos de energia se isso os beneficiar. Embora grupos acadêmicos possam prestar atenção a métricas como o impacto do carbono, as empresas não são incentivadas da mesma maneira – pelo menos atualmente.
“A razão pela qual estamos tendo essa conversa para começar é que empresas como Google e OpenAI tinham financiamento efetivamente infinito e optaram por aproveitá-lo para construir modelos como GPT-3 e BERT a qualquer custo, porque sabiam que isso lhes dava um vantagem,” Prepare dinner disse ao TechCrunch por electronic mail. “No geral, European acho que o jornal diz algumas coisas legais e é ótimo se estamos pensando em eficiência, mas a questão não é técnica na minha opinião – sabemos que essas empresas vão crescer quando precisarem, elas ganharam não se conterem, então dizer que isso agora está resolvido para sempre parece uma linha vazia.”
O último tópico desta semana não é exatamente sobre aprendizado de máquina, mas sim sobre o que pode ser um caminho a seguir para simular o cérebro de uma maneira mais direta. Pesquisadores de bioinformática da EPFL criou um modelo matemático para criar toneladas de neurônios simulados únicos, mas precisos, que poderiam eventualmente ser usados para construir gêmeos digitais de neuroanatomia.
“As descobertas já estão permitindo que a Blue Mind construa reconstruções e simulações biologicamente detalhadas do cérebro do rato, reconstruindo computacionalmente regiões do cérebro para simulações que replicam as propriedades anatômicas das morfologias neuronais e incluem anatomia específica da região”, disse a pesquisadora Lida Kanari.
Não espere que os cérebros sim produzam melhores IAs – isso é muito em busca de avanços na neurociência – mas talvez os insights de redes neuronais simuladas possam levar a melhorias fundamentais na compreensão dos processos que a IA procura imitar digitalmente.
[ad_2]
Fonte da Notícia
:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2022/5/H/JIFXQkTHejdsLDhHOKXA/stalkerware.jpg)



:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2022/B/Z/4lCbzoQbGt30sKqiJgCw/celular-golpes.png)