Por que precisamos de IA centrada no ser humano
[ad_1]
Bem-vindo ao resenhas de livros de IAuma série de posts que exploram a literatura mais recente sobre inteligência synthetic.
Existem duas imagens contrastantes, mas igualmente perturbadoras, de inteligência synthetic. Um adverte sobre um futuro em que a inteligência descontrolada se torna mais inteligente que a humanidade, cria desemprego em massa e escraviza humanos em um mundo tipo Matrix ou os destrói à los angeles Skynet. Uma imagem mais contemporânea é aquela em que algoritmos burros de IA são encarregados de decisões sensíveis que podem causar danos graves quando eles dão errado.
O que ambas as visões têm em comum é a ausência de controle humano. Grande parte da narrativa em torno da IA é baseada na crença de que a automação e o controle humano são mutuamente exclusivos.
Uma visão alternativa, chamada de “IA centrada no ser humano”, visa reduzir os medos de ameaças existenciais e aumentar os benefícios para os usuários e a sociedade, colocando os humanos no centro dos esforços da IA.
“Uma abordagem centrada no ser humano reduzirá as tecnologias fora de controle, acalmará os medos do desemprego liderado por robôs e dará aos usuários a sensação recompensadora de domínio e realização”, escreve Ben Shneiderman, professor de ciência da computação da Universidade de Maryland e autor do IA centrada no ser humanoum livro que explora como a IA pode amplificar, aumentar, capacitar e aprimorar o desempenho humano.
Shneiderman acredita que, com a estrutura certa, metáforas de design e estruturas de governança, podemos criar sistemas de IA que podem ter altos níveis de automação e controle humano.
A estrutura HCAI
“A ideia de níveis de automação que variam de controle humano overall a autonomia overall da máquina mantém viva a ideia equivocada de que é um jogo de soma 0”, disse Shneiderman ao TechTalks. “No entanto, por meio de um design cuidadoso, como em câmeras de celulares e navegação, os designers podem combinar altos níveis de automação para algumas tarefas, preservando altos níveis de controle humano para tarefas criativas e de preferência pessoal.”
Para criar esse equilíbrio, Shneiderman sugere a estrutura de IA centrada no homem (HCAI), um conjunto de diretrizes que mantém os humanos no centro de sistemas altamente automatizados. A HCAI baseia-se em três ideias-chave. Primeiro, os designers de sistemas de IA devem ter como objetivo aumentar a automação de uma maneira que amplifique o desempenho humano. Em segundo lugar, eles devem examinar e definir cuidadosamente as situações em que o controle humano overall ou o controle overall do computador são necessários. E terceiro, eles devem entender e evitar os perigos do controle humano ou computador excessivo.
Com os sistemas de IA se tornando altamente precisos em várias tarefas, há uma tendência de omitir recursos que permitem que os humanos controlem e substituam decisões automatizadas. Os proponentes da diminuição do controle humano afirmam que, primeiro, os humanos cometem muitos erros e, segundo, poucos usuários aprenderão ou se incomodarão em usar os controles.
No entanto, Shneiderman argumenta que essas preocupações podem ser abordadas projetando a interface de usuário correta e os elementos de experiência para produtos com tecnologia de IA. Na verdade, a experiência mostra que os controles do usuário para ativar, operar e substituir podem fazer mais confiável, seguro e confiável sistemas, argumenta Shneiderman.
“Os designers que adotam a mentalidade HCAI enfatizam estratégias para permitir que diversos usuários orientem, operem e controlem seus dispositivos altamente automatizados, enquanto convidam os usuários a exercitar sua criatividade para refinar projetos”, escreve ele em Human-Targeted AI.
O equilíbrio entre controle humano e computador

Tecnologias maduras, como elevadores, câmeras, eletrodomésticos ou dispositivos médicos que estão em uso há décadas, devem seu sucesso a encontrar o equilíbrio certo entre automação e controle humano.
Com os avanços na IA criando uma mudança em direção à integração do aprendizado de máquina e aprendizado profundo em aplicativos, os paradigmas de design para aplicativos estão mudando.
Por exemplo, anteriormente, as interfaces gráficas do usuário dos aplicativos deixavam muito pouco espaço para erros do usuário. Mas hoje, o desempenho impressionante de grandes modelos de linguagem às vezes cria a ilusão de que os sistemas de IA atuais podem ser confiáveis com conversas abertas sem a necessidade de controles do usuário. Da mesma forma, os avanços visão computacional criam a ilusão de que os sistemas de IA podem classificar perfeitamente as imagens sem a necessidade de intervenção humana.
Mas vários estudos e incidentes mostraram que os sistemas de aprendizado de máquina podem falhar de maneiras inesperadas, tornando-os não confiáveis em aplicativos críticos. Nem todos os aplicativos são afetados da mesma maneira por essas falhas. Por exemplo, uma recomendação de produto ou conteúdo errada pode ter um impacto menor. Mas um empréstimo ou pedido de emprego recusado pode ser muito mais prejudicial, e uma decisão médica errada pode ser deadly.
Evidentemente, os aplicativos de hoje precisam fazer o melhor uso dos avanços no aprendizado de máquina sem sacrificar a segurança e a robustez.
“Encontrar os princípios de design que combinam controle humano e automação de computador é o grande desafio atual, especialmente para tarefas críticas de vida em transporte e assistência médica”, disse Shneiderman.
Nos últimos anos, houve alguns desenvolvimentos práticos para enfrentar os desafios de integrar o aprendizado de máquina em aplicativos do mundo actual. Por exemplo, IA explicável (XAI) é uma área crescente de pesquisa para o desenvolvimento de ferramentas que fornecem visibilidade e controle sobre como modelos complexos de aprendizado de máquina tomam suas decisões.
As ferramentas XAI podem destacar áreas em uma imagem ou palavras em um trecho de texto que mais contribuíram para a saída de uma rede neural profunda. Esses recursos podem ser integrados a aplicativos baseados em IA, como ferramentas de imagem médica para ajudar especialistas humanos a decidir se podem confiar nas decisões tomadas por seus assistentes de IA.
Mesmo recursos simples, como exibir pontuações de confiança, fornecer várias sugestões de saída e adicionar controles deslizantes à interface do usuário, podem ajudar bastante a mitigar alguns dos desafios enfrentados pelos sistemas de IA atuais. Por exemplo, os usuários de sistemas de recomendação podem receber ferramentas para entender e controlar que tipo de conteúdo são exibidos, como o YouTube fez recentemente. Isso pode fornecer uma experiência muito melhor do que algoritmos opacos que otimizam o conteúdo para fatores que não contribuem necessariamente para o bem-estar dos usuários.
Dentro IA centrada no ser humano, Shneiderman fornece diretrizes que abrangem design visible, visualizações de ações esperadas, trilhas de auditoria, revisões de quase-acidentes e falhas e outros que podem ajudar a garantir confiabilidade, segurança e confiabilidade. Basicamente, reconhecendo os limites da inteligência humana e synthetic, designers e desenvolvedores de produtos automatizados podem encontrar o divisão correta do trabalho entre humanos e IA.
“Há muita pesquisa a ser feita, mas a consciência de que soluções combinadas são possíveis e desejáveis é o primeiro passo”, disse Shneiderman.
Colocando HCAI em uso prático

Dentro IA centrada no ser humanoShneiderman fornece exemplos concretos e estruturas para trazer HCAI para aplicações do mundo actual, incluindo quatro metáforas de design para criar sistemas HCAI seguros e confiáveis:
Superferramentas use combinações de IA com o pensamento HCAI para melhorar o valor e a aceitação de produtos e serviços. Os exemplos incluem fornecer aos usuários elementos de controle para operar seus sistemas de recomendação guiados por IA, como controles deslizantes para escolher músicas ou caixas de seleção para restringir as pesquisas de comércio eletrônico.
Telebots reconhecer que “computadores não são pessoas e pessoas não são computadores”. Os telebots são projetados para abraçar essas diferenças e criar sinergias que amplificam os pontos fortes de ambos. Em vez de tentar replicar elementos da inteligência humana, os designers de telebots aproveitam recursos exclusivos de computador, incluindo algoritmos sofisticados, bancos de dados enormes, sensores sobre-humanos, exibições abundantes de informações e efetores poderosos. Ao mesmo pace, eles fornecem recursos que permitem que os humanos tomem decisões de alto nível, sensíveis e críticas. Podemos ver esse tipo de design em robôs cirúrgicos, softwares de mercado financeiro e robôs teleoperados.
O Centro de Controle A metáfora sugere que a autonomia confiável requer supervisão humana. Os centros de controle permitem a supervisão humana, apoiam a conscientização contínua da situação e oferecem um modelo claro do que está acontecendo e do que acontecerá a seguir. Os centros de controle fornecem painéis de controle abundantes em informações, comments abrangente para cada ação e uma trilha de auditoria para permitir investigações retrospectivas. “Para muitas aplicações, os centros de controle podem oferecer mais oportunidades de supervisão humana. Quando a resposta rápida exige atividade autônoma, muito cuidado e revisão constante do desempenho ajudarão a tornar a operação mais segura”, escreve Shneiderman.
O aparelho ativo A metáfora sugere que, em vez de perseguir designs antropomórficos, os sistemas de IA devem ser otimizados para responder às necessidades humanas genuínas. Considere os caixas eletrônicos, que não se parecem com caixas de banco, mas são muito eficientes na solução dos problemas dos usuários. Assim, os avanços na pesquisa de IA e robótica devem nos manter no caminho de resolver problemas da maneira mais eficiente possível. Um exemplo interessante é Dinâmica de Boston, que está tentando encontrar o equilíbrio certo entre a pesquisa científica e as aplicações do mundo actual. A empresa investiu muita energia e recursos para superar os desafios da robôs humanóides. Ao mesmo pace, seu mais recente produto comercial, Esticarnão se parece em nada com um trabalhador humano, mas pode levantar e mover engradados e caixas com maior eficiência.
“O pensamento HCAI revela maneiras de projetar novas tecnologias que limitam os perigos e orientam os líderes empresariais na criação de culturas de segurança nas quais produtos e serviços de sucesso são a norma”, disse Shneiderman. “Lembre-se, os objetivos são mais do que sucesso comercial; queremos promover a criatividade humana, a responsabilidade, a sustentabilidade e a conexão social. Além disso, queremos aumentar a autoeficácia, trazer alegria, espalhar compaixão e respeitar a dignidade humana”.
Este artigo foi originalmente publicado por Ben Dickson em TechTalks, uma publicação que examina as tendências em tecnologia, como elas afetam a maneira como vivemos e fazemos negócios e os problemas que elas resolvem. Mas também discutimos o lado maligno da tecnologia, as implicações mais sombrias da nova tecnologia e o que precisamos observar. Você pode ler o artigo authentic aqui.
[ad_2]
Fonte da Notícia


:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2022/Z/y/5reArtQBqiBKJAHbYBhw/yandex2222.jpg)

