Intel expande seu equipment de ferramentas para desenvolvedores de IA
[ad_1]
À frente de MWC 2022a Intel lançou uma nova versão do Intel Distribution do equipment de ferramentas OpenVINO que induz grandes atualizações para acelerar IA desempenho de inferência.
Desde o lançamento de OpenVINO em 2018, a gigante dos chips permitiu que centenas de milhares de desenvolvedores acelerassem o desempenho da inferência de IA começando na borda e se estendendo para empresas e clientes.
Esta versão mais recente inclui novos recursos baseados em três anos e meio de comments dos desenvolvedores e também inclui uma seleção maior de aprendizado profundo modelos, mais opções de portabilidade de dispositivos e maior desempenho de inferência com menos alterações de código.
VP de ferramentas de desenvolvedor OpenVINO no Grupo de Rede e Edge da Intel, Adam Burns forneceu mais informações sobre esta versão mais recente da distribuição da empresa do equipment de ferramentas OpenVINO em um Comunicado de imprensadizendo:
“A versão mais recente do OpenVINO 2022.1 se baseia em mais de três anos de aprendizado de centenas de milhares de desenvolvedores para simplificar e automatizar otimizações. A atualização mais recente adiciona descoberta automática de {hardware} e otimização automática, para que os desenvolvedores de device possam obter o desempenho excellent em todas as plataformas. Esse device mais o silício Intel permite uma vantagem significativa de ROI de IA e é implantado facilmente nas soluções baseadas em Intel em sua rede.”
Construído com base na oneAPI, o equipment de ferramentas Intel Distribution of OpenVINO é um conjunto de ferramentas para aprendizado profundo de alto desempenho destinado a permitir resultados mais rápidos e precisos do mundo actual implantados na produção da borda para a nuvem. Novos recursos na versão mais recente tornam mais fácil para os desenvolvedores adotar, manter, otimizar e implantar código com facilidade em uma ampla variedade de modelos de aprendizado profundo.
A versão mais recente do equipment de ferramentas Intel Distribution of OpenVINO apresenta uma API atualizada e mais limpa que requer menos alterações de código ao fazer a transição de outra estrutura. Ao mesmo pace, os parâmetros da API do Fashion Optimizer foram reduzidos para minimizar a complexidade.
A Intel também incluiu suporte mais amplo para programação em linguagem herbal (PNL) para casos de uso, como conversão de texto em fala e reconhecimento de voz. Em termos de desempenho, o modo de dispositivo AUTO agora autodescobre a capacidade de inferência do sistema disponível com base nos requisitos do modelo, para que os aplicativos não precisem mais conhecer seu ambiente de computação para avançar.
Finalmente, a Intel adicionou suporte para a arquitetura híbrida em CPUs Intel Core de 12ª geração para fornecer aprimoramentos para inferência de alto desempenho na CPU e na GPU integrada.
[ad_2]
Fonte da Notícia



