TECNOLOGIA

Nvidia faz parceria com Run:ai e Weights & Biases for MLops Stack

Nvidia faz parceria com Run:ai e Weights & Biases for MLops Stack

[ad_1]

Estamos empolgados em trazer o Develop into 2022 de volta pessoalmente em 19 de julho e virtualmente de 20 a 28 de julho. Junte-se aos líderes de IA e dados para conversas perspicazes e oportunidades de networking empolgantes. Registre-se hoje!




A execução de um ciclo de vida completo do fluxo de trabalho de aprendizado de máquina geralmente pode ser uma operação complicada, envolvendo vários componentes desconectados.

Os usuários precisam ter {hardware} otimizado para aprendizado de máquina, a capacidade de orquestrar cargas de trabalho nesse {hardware} e também ter alguma forma de tecnologia de operações de aprendizado de máquina (MLops) para gerenciar os modelos. Em uma tentativa de ajudar a tornar mais fácil para os cientistas de dados, o fornecedor de orquestração de computação de inteligência synthetic (IA) Run:ai, que arrecadou US$ 75 milhões em março, bem como o fornecedor da plataforma MLops Weights & Biases (W&B), estão em parceria com a Nvidia.

“Com essa parceria de três vias, os cientistas de dados podem usar Weights & Biases para planejar e executar seus modelos”, disse Omri Geller, CEO e cofundador da Run:AI à VentureBeat. “Além disso, o Run:ai orquestra todas as cargas de trabalho de maneira eficiente nos recursos de GPU da Nvidia, para que você obtenha a solução completa do {hardware} ao cientista de dados.”

O Run:ai foi projetado para ajudar as organizações a usar o {hardware} da Nvidia para cargas de trabalho de aprendizado de máquina em ambientes nativos da nuvem – uma abordagem de implantação que united states contêineres e microsserviços gerenciados pela plataforma de orquestração de contêineres Kubernetes.

Uma das maneiras mais comuns de as organizações executarem aprendizado de máquina no Kubernetes é com o projeto de código aberto Kubeflow. O Run:ai tem uma integração com o Kubeflow que pode ajudar os usuários a otimizar o uso da GPU Nvidia para aprendizado de máquina, explicou Geller.

Omri acrescentou que o Run:ai foi projetado como um plug-in para Kubernetes que permite a virtualização de recursos de GPU da Nvidia. Ao virtualizar a GPU, os recursos podem ser fracionados para que vários contêineres possam acessar a mesma GPU. O Run:ai também permite o gerenciamento de cotas de instâncias de GPU digital para ajudar a garantir que as cargas de trabalho sempre tenham acesso aos recursos necessários.

Geller disse que o objetivo da parceria é tornar um fluxo de trabalho completo de operações de aprendizado de máquina mais consumível para usuários corporativos. Para esse fim, Run:ai e Weights & Biases estão construindo uma integração para ajudar a tornar mais fácil executar as duas tecnologias juntas. Omri disse que antes da parceria, as organizações que queriam usar Run:ai e Weights & Biases tinham que passar por um processo handbook para fazer as duas tecnologias funcionarem juntas.

Seann Gardiner, vice-presidente de desenvolvimento de negócios da Weights & Biases, comentou que a parceria permite que os usuários aproveitem a automação de treinamento fornecida pela Weights & Biases com os recursos de GPU orquestrados pelo Run:ai.

A Nvidia não é monogâmica e faz parceria com todos

A Nvidia está fazendo parceria com Run:ai e Weights & Biases, como parte da estratégia maior da empresa de parceria no ecossistema de aprendizado de máquina de fornecedores e tecnologias.

“Nossa estratégia é fazer uma parceria justa e uniforme com o objetivo abrangente de garantir que a IA se torne onipresente”, disse Scott McClellan, diretor sênior de gerenciamento de produtos da Nvidia, ao VentureBeat.

McClellan disse que a parceria com Run:ai e Weights & Biases é particularmente interessante, pois, em sua opinião, os dois fornecedores fornecem tecnologias complementares. Ambos os fornecedores agora também podem se conectar à plataforma Nvidia AI Undertaking, que fornece instrument e ferramentas para ajudar a tornar a IA utilizável para empresas.

Com os três fornecedores trabalhando juntos, McClellan disse que, se um cientista de dados estiver tentando usar os contêineres corporativos de IA da Nvidia, eles não precisam descobrir como fazer suas próprias estruturas de implantação de orquestração ou seu próprio agendamento.

“Esses dois parceiros meio que completam nossa pilha – ou nós completamos a deles e completamos a outra – então o todo é maior que a soma das partes”, disse ele.

Evitando o “Triângulo das Bermudas” dos MLops

Para a Nvidia, a parceria com fornecedores como Run:ai e Weights & Biases é ajudar a resolver um desafio importante que muitas empresas enfrentam ao embarcar em um projeto de IA.

“O momento em que um projeto de ciência de dados ou IA tenta passar da experimentação para a produção, às vezes é um pouco como o Triângulo das Bermudas, onde muitos projetos morrem”, disse McClellan. “Quero dizer, eles simplesmente desaparecem no Triângulo das Bermudas – como faço para colocar essa coisa em produção?”

Com o uso de Kubernetes e tecnologias nativas da nuvem, que são comumente usadas pelas empresas hoje, McClellan espera que agora seja mais fácil do que no passado desenvolver e operacionalizar fluxos de trabalho de aprendizado de máquina.

“MLops é devops para ML – é literalmente como essas coisas não morrem quando entram em produção e passam a viver uma vida plena e saudável”, disse McClellan.

[ad_2]

Fonte da Notícia: venturebeat.com

Artigos relacionados

Botão Voltar ao topo