TECNOLOGIA

Por que as empresas devem parar de tentar ser “AI-first”

Publicidade

[ad_1]

Inteligência synthetic tornou-se um chavão na indústria de tecnologia. As empresas estão ansiosas para se apresentar como “AI-first” e usar os termos “AI”, “device finding out” e “deep finding out” abundantemente em sua cópia da internet e de advertising.

Quais são os efeitos do hype atual em torno da IA? Está apenas enganando consumidores e usuários finais ou também está afetando investidores e reguladores? Como está moldando a mentalidade para a criação de produtos e serviços? Como a fusão de pesquisa científica e desenvolvimento de produtos comerciais está alimentando o hype?

Estas são algumas das perguntas que Richard Heimann, Leader AI Officer da Cybraics, responde em seu novo livro Fazendo IA. A essential mensagem de Heimann é que quando a própria IA se torna nosso objetivo, perdemos de vista todos os problemas importantes que devemos resolver. E, por extensão, tiramos as conclusões erradas e tomamos as decisões erradas.

Aprendizado de máquina, aprendizado profundo e todas as outras tecnologias que se enquadram no termo abrangente “IA” devem ser consideradas somente depois que você tiver objetivos e problemas bem definidos, argumenta Heimann. E é por isso que ser IA-first significa fazer IA por último.

Publicidade

Um dos temas aos quais Heimann retorna no livro é ter o foco errado. Quando as empresas falam sobre ser “AI-first”, seu objetivo se torna de alguma forma integrar os maiores e mais recentes avanços em pesquisa de IA em seus produtos (ou pelo menos finja fazer isso). Quando isso acontece, a empresa começa com a solução e depois tenta encontrar um problema para resolver com ela.

Talvez um exemplo gritante seja a tendência em torno grandes modelos de linguagem, que estão fazendo muito barulho na mídia convencional e estão sendo apresentados como solucionadores de problemas gerais no processamento de linguagem herbal. Embora esses modelos sejam realmente impressionantes, eles não são uma bala de prata. Na verdade, em muitos casos, quando você tem um problema bem definido, um modelo mais simples ou mesmo uma expressão common ou um programa baseado em regras pode ser mais confiável que o GPT-3.

“Interpretamos a IA primeiro como se devêssemos literalmente nos tornar soluções em primeiro lugar sem saber por quê. Além disso, conceituamos uma solução abstrata e idealizada que colocamos diante de problemas e clientes sem considerar totalmente se é sensato fazê-lo, se o hype é verdadeiro ou como o foco na solução afeta nosso negócios”, escreve Heimann em Fazendo IA.

Este é um ponto problemático que encontrei várias vezes na forma como as empresas tentam lançar seus produtos. Costumo ler um monte de jargões de IA (às vezes contraditórios), tentando descobrir que tipo de problema a empresa get to the bottom of. Às vezes, não acho nada impressionante.

“Qualquer pessoa que fale sobre IA sem o suporte de um problema provavelmente não está interessada em criar um negócio actual ou não tem ideia do que significa um negócio”, disse Heimann. TechTalks. “Talvez esses aspirantes a empreendedores estejam procurando uma aquisição estratégica. Se o seu sonho é ser adquirido pelo Google, nem sempre você precisa de um negócio. O Google é um e não precisa do seu. No entanto, o fato de o Google ser um negócio não deve ser esquecido.”

O hype da IA ​​atraiu interesse e financiamento para o campo, fornecendo a startups e laboratórios de pesquisa muito dinheiro para perseguir seus sonhos. Mas também teve efeitos adversos. Por um lado, usar o termo “IA” ambíguo, antropomórfico e vagamente definido estabelece altas expectativas em clientes e usuários e causa confusão. Também pode levar as empresas a negligenciar soluções mais acessíveis e desperdiçar recursos em tecnologia desnecessária.

“O que é importante lembrar é que a IA não é um monólito. Significa coisas diferentes para pessoas diferentes”, disse Heimann. “Isso não pode ser dito sem confundir a todos. Se você é um gerente e diz ‘IA’, você criou metas externas para solucionadores de problemas. Se você disser ‘IA’ sem uma conexão com um problema, criará desalinhamentos porque a equipe encontrará problemas adequados para alguma solução arbitrária.”

A pesquisa acadêmica de IA está focada em ultrapassar os limites da ciência. Cientistas estudam cognição, cérebro e comportamento em animais e humanos para encontrar dicas sobre como criar inteligência synthetic. Eles usam ImageNet, COCO, GLUE, Winograd, ARC, jogos de tabuleiro, videogames e outros referências para medir o progresso na IA. Embora saibam que suas descobertas podem servir à humanidade no futuro, eles não estão preocupados se sua tecnologia será comercializada ou produzida nos próximos meses ou anos.

IA aplicada, por outro lado, visa solucionar problemas específicos e enviar produtos ao mercado. Os desenvolvedores de sistemas de IA aplicados devem atender às restrições de memória e computacionais impostas pelo ambiente. Eles devem estar em conformidade com os regulamentos e atender aos padrões de segurança e robustez. Eles medem o sucesso em termos de público, lucros e perdas, satisfação do cliente, crescimento, escalabilidade and so forth. Na verdade, no desenvolvimento de produtos, aprendizado de máquina e aprendizado profundo (e qualquer outra tecnologia de IA) se tornam uma das muitas ferramentas que você u.s.a. para resolver os problemas dos clientes.

Nos últimos anos, especialmente porque entidades comerciais e grandes empresas de tecnologia têm assumiu a liderança na pesquisa de IA, as linhas entre pesquisa e aplicações se tornaram tênues. Hoje, empresas como Google, Fb, Microsoft e Amazon respondem por grande parte do dinheiro que vai para a pesquisa de IA. Consequentemente, seus objetivos comerciais afetam os rumos que a pesquisa de IA toma.

“A aspiração de resolver tudo, em vez de algo, é o cume dos insiders, e é por isso que eles procuram soluções cognitivamente plausíveis”, escreve Heimann em Fazendo IA. “Mas isso não muda o fato de que as soluções não podem ser todas as coisas para todos os problemas e, gostemos ou não, os negócios também não. Praticamente nenhum negócio requer soluções que sejam universais, porque os negócios não são de natureza common e muitas vezes não podem atingir objetivos ‘em uma ampla gama de ambientes’”.

Um exemplo é o DeepMind, o laboratório de pesquisa de IA com sede no Reino Unido que foi adquirido pelo Google em 2014. A missão do DeepMind é criar inteligência synthetic geral segura. Ao mesmo pace, tem o dever de entregar lucros para seu dono.

O mesmo pode ser dito do OpenAI, outro laboratório de pesquisa que persegue o sonho da AGI. Mas sendo financiado principalmente pela Microsoft, o OpenAI deve encontrar um equilíbrio entre pesquisa científica e desenvolvimento de tecnologias que podem ser integrados aos produtos da Microsoft.

“Os limites [between academia and business] são cada vez mais difíceis de reconhecer e são complicados por fatores e motivações econômicas, comportamento falso e objetivos conflitantes”, disse Heimann. “É aqui que você vê empresas fazendo pesquisas e publicando artigos e se comportando de maneira semelhante às instituições acadêmicas tradicionais para atrair profissionais com mentalidade acadêmica. Você também encontra acadêmicos que mantêm suas posições enquanto ocupam cargos na indústria. Acadêmicos fazem reivindicações infladas e criam negócios somente de IA que não resolvem nenhum problema para pegar dinheiro durante os verões de IA. As empresas fazem grandes reivindicações com apoio acadêmico. Isso suporta pipelines de recursos humanos, geralmente prestígio da empresa, e impacta o ‘efeito multiplicador’”.

Repetidamente, os cientistas descobriram que as soluções para muitos problemas não exigem necessariamente inteligência no nível humano. Pesquisadores conseguiram criar sistemas de IA que podem dominar xadrez, vá, concursos de programaçãoe exames de ciências sem reproduzir o processo de raciocínio humano.

Essas descobertas geralmente criam debates sobre se a IA deve simular o cérebro humano ou ter como objetivo produzir resultados aceitáveis.

“A questão é relevante porque a IA não get to the bottom of problemas da mesma forma que os humanos”, disse Heimann. “Sem a cognição humana, essas soluções não resolverão nenhum outro problema. O que chamamos de ‘IA’ é estreito e só get to the bottom of os problemas que eles pretendiam resolver. Isso significa que os líderes de negócios ainda precisam encontrar problemas que importam e encontrar a solução certa ou projetar a solução certa para resolver esses problemas.”

Heimann também alertou que soluções de IA que não agem como humanos falharão em maneiras que são diferentes dos humanos. Isso tem implicações importantes para segurança, proteção, justiça, confiabilidade e muitas outras questões sociais.

“Isso significa necessariamente que devemos usar a ‘IA’ com discrição e nunca em problemas simples que os humanos podem resolver facilmente ou quando o custo do erro é alto e a responsabilidade é necessária”, disse Heimann. “Mais uma vez, isso nos traz de volta à natureza do problema que queremos resolver.”

Em outro sentido, a questão de saber se a IA deve simular o cérebro humano carece de relevância porque a maioria das pesquisas de IA se preocupa muito pouco com plausibilidade cognitiva ou plausibilidade biológica, acredita Heimann.

“Muitas vezes ouço pessoas com mentalidade empresarial defendendo bobagens sobre redes neurais artificiais serem ‘inspiradas por…’ ou ‘imitarem aproximadamente’ o cérebro”, disse ele. “O aspecto neuronal das redes neurais artificiais é apenas uma fachada para o funcionalismo computacional que ignora todas as diferenças entre silício e biologia. Além de alguns contra-exemplos, a pesquisa em redes neurais artificiais ainda se concentra no funcionalismo e não se preocupa em melhorar a plausibilidade neuronal. Se os insiders geralmente não se importam em preencher a lacuna entre redes neurais biológicas e artificiais, você também não deveria.”

Dentro Fazendo IA, Heimann enfatiza que, para resolver problemas suficientemente complexos, podemos usar tecnologia avançada, como aprendizado de máquina, mas o nome dessa tecnologia significa menos do que o motivo pelo qual a usamos. A sobrevivência de uma empresa não depende do nome de uma solução, da filosofia da IA ​​ou da definição de inteligência.

Ele escreve: “Em vez de perguntar se a IA é sobre simular o cérebro, seria melhor perguntar: ‘As empresas são obrigadas a usar redes neurais artificiais?’ Se essa é a pergunta, então a resposta é não. A presunção de que você precisa usar alguma solução arbitrária antes de identificar um problema é adivinhar a solução. Embora as redes neurais artificiais sejam muito populares e quase perfeitas no sentido estrito de que podem ajustar funções complexas aos dados – e assim compactar dados em representações úteis – elas nunca devem ser o objetivo dos negócios, porque aproximar uma função aos dados raramente é suficiente para resolver um problema e, ausente de resolver um problema, nunca o objetivo do negócio”.

Quando se trata de desenvolver produtos e planos de negócios, o problema vem primeiro e a tecnologia vem depois. Às vezes, no contexto do problema, destacar a tecnologia faz sentido. Por exemplo, um aplicativo “mobile-first” sugere que ele aborda um problema que os usuários enfrentam principalmente quando não estão sentados atrás de um computador. Uma solução “cloud-first” sugere que o armazenamento e o processamento sejam feitos principalmente na nuvem para disponibilizar as mesmas informações em vários dispositivos ou para evitar sobrecarregar os recursos computacionais dos dispositivos do usuário ultimate. (Vale a pena notar que esses dois termos também se tornaram palavras-chave sem sentido após serem usados ​​em excesso. Eles eram significativos nos anos em que as empresas estavam migrando de instalações no native para a nuvem e da Internet para dispositivos móveis. Hoje, espera-se que todos os aplicativos estejam disponíveis em dispositivos móveis e ter uma distinctiveness infraestrutura de nuvem.)

Mas o que “AI-first” diz sobre o problema e o contexto do aplicativo e o problema que ele get to the bottom of?

“AI-first é um paradoxo e uma viagem do ego. Você não pode fazer algo antes de entender as circunstâncias que o tornam necessário”, disse Heimann. “Estratégias de IA, como IA-first, podem significar qualquer coisa. A estratégia de negócios é muito ampla quando inclui tudo ou coisas que não deveria, como inteligência. A estratégia de negócios é muito restrita quando não inclui coisas que deveria, como mencionar um problema actual ou um cliente do mundo actual. Estratégias circulares são aquelas em que uma solução outline um objetivo e o objetivo outline essa solução.

“Quando faltam informações específicas do problema, do cliente e do mercado, as equipes preenchem as lacunas e trabalham em tudo o que pensam quando pensam em IA. No entanto, é improvável que você encontre um cliente dentro de uma solução abstrata como ‘IA’. Portanto, a inteligência synthetic não pode ser uma meta de negócios e, quando é, a estratégia é mais complexa, quase impossível.”

Este artigo foi originalmente escrito por Ben Dickson e publicado por Ben Dickson em TechTalks, uma publicação que examina as tendências em tecnologia, como elas afetam a maneira como vivemos e fazemos negócios e os problemas que elas resolvem. Mas também discutimos o lado maligno da tecnologia, as implicações mais sombrias da nova tecnologia e o que precisamos observar. Você pode ler o artigo authentic aqui.

[ad_2]

Fonte da Notícia

Publicidade

Osmar Queiroz

Osmar é um editor especializado em tecnologia, com anos de experiência em comunicação digital e produção de conteúdo voltado para inovação, ciência e tecnologia.

Artigos relacionados

Botão Voltar ao topo
HexTec News