Ideia em resumo

O problema

Muitas empresas lutam para aplicar a IA e não conseguem alcançar as melhorias de produtividade que buscam.

Por que isso acontece

Os executivos geralmente não deixam claro que estão usando a IA para ajudar as pessoas a aumentar a produtividade, em vez de substituí-las.

Como consertar

Trate a adoção da IA como um processo de integração que consiste em quatro fases: IA como assistente, como um monitor, como um treinador, e como companheiro de equipe.

Aviso: este texto foi traduzido com o uso de tradução automática e pode conter erros. Responda a esta pesquisa para nos enviar seus comentários e obtenha mais informações em nossas perguntas frequentes.
Read in English

Em uma pesquisa do Workforce Institute de 2018 com 3.000 gerentes em oito países industrializados, a maioria dos entrevistados descreveu a inteligência artificial como uma ferramenta valiosa de produtividade.

É fácil entender o porquê: a IA traz benefícios tangíveis em velocidade de processamento, precisão e consistência (as máquinas não cometem erros porque estão cansadas), e é por isso que muitos profissionais agora confiam nela. Alguns médicos especialistas, por exemplo, usam ferramentas de IA para ajudar a fazer diagnósticos e tomar decisões sobre o tratamento.

Mas os entrevistados dessa pesquisa também expressaram temores de que a IA aceitasse seus empregos. Eles não estão sozinhos. O Guardião relatou recentemente que mais de 6 milhões de trabalhadores no Reino Unido temem ser substituídos por máquinas. Esses temores são repetidos por acadêmicos e executivos que encontramos em conferências e seminários. As vantagens da IA podem ser lançadas sob uma luz muito mais escura: por que os humanos seriam necessários quando as máquinas podem fazer um trabalho melhor?

A prevalência de tais medos sugere que as organizações que buscam colher os benefícios da IA precisam ter cuidado ao apresentá-la às pessoas que devem trabalhar com ela. Andrew Wilson, até janeiro de 2020, CIO da Accenture, diz: “Quanto maior o grau de foco organizacional nas pessoas ajudando a IA e a IA ajudando as pessoas, maior será o valor alcançado”. A Accenture descobriu que, quando as empresas deixam claro que estão usando a IA para ajudar as pessoas em vez de substituí-las, elas superam significativamente as empresas que não estabelecem esse objetivo (ou não têm clareza sobre seus objetivos de IA) na maioria das dimensões da produtividade gerencial - principalmente velocidade, escalabilidade e eficácia da tomada de decisões.

Em outras palavras, assim como quando novos talentos se juntam a uma equipe, a IA deve ser configurada para ter sucesso em vez de falhar. Um empregador inteligente treina novos contratados, dando-lhes tarefas simples que criam experiência prática em um contexto não crítico e atribui a eles mentores para oferecer ajuda e aconselhamento. Isso permite que os recém-chegados aprendam enquanto outros se concentram em tarefas de maior valor. À medida que ganham experiência e demonstram que podem fazer o trabalho, seus mentores confiam cada vez mais neles como caixas de ressonância e confiam a eles decisões mais substantivas. Com o tempo, um aprendiz se torna um parceiro, contribuindo com habilidades e insights.

null Jean-Baptiste Perrot

Acreditamos que essa abordagem também pode funcionar para a inteligência artificial. Nas páginas seguintes, nos baseamos em nossa própria pesquisa e consultoria sobre implementação de IA e sistemas de informação, juntamente com estudos organizacionais de inovação e práticas de trabalho, para apresentar uma abordagem de quatro fases para implementar a IA. Ele permite que as empresas cultivem a confiança das pessoas - uma condição fundamental para a adoção - e trabalhem em direção a um sistema cognitivo de IA humana distribuído no qual as pessoas e a IA ambos melhorar continuamente. Muitas organizações experimentaram a fase 1 e algumas progrediram para as fases 2 e 3. Por enquanto, a fase 4 pode ser principalmente um exercício de “fundição do futuro”, do qual vemos alguns sinais iniciais, mas é viável de uma perspectiva tecnológica e forneceria mais valor às empresas à medida que elas se envolvem com a inteligência artificial.

Fase 1: O assistente

Essa primeira fase da integração da inteligência artificial é como o processo de treinamento de um assistente. Você ensina ao novo funcionário algumas regras fundamentais e entrega algumas tarefas básicas, mas demoradas, que você normalmente faz (como preencher formulários on-line ou resumir documentos), o que o libera para se concentrar em aspectos mais importantes do trabalho. O estagiário aprende observando você, realizando as tarefas e fazendo perguntas.

Uma tarefa comum para assistentes de IA é classificar dados. Um exemplo são os sistemas de recomendação que as empresas usam desde meados da década de 1990 para ajudar os clientes a filtrar milhares de produtos e encontrar os mais relevantes para eles - Amazon e Netflix estão entre os líderes nessa tecnologia.

Mais e mais decisões de negócios agora exigem esse tipo de classificação de dados. Quando, por exemplo, os gerentes de portfólio estão escolhendo ações nas quais investir, as informações disponíveis são muito mais do que um ser humano pode processar de forma viável, e novas informações surgem o tempo todo, aumentando o registro histórico. O software pode tornar a tarefa mais gerenciável filtrando imediatamente os estoques para atender aos critérios de investimento predefinidos. Enquanto isso, o processamento de linguagem natural pode identificar as notícias mais relevantes para uma empresa e até mesmo avaliar o sentimento geral sobre um próximo evento corporativo, conforme refletido nos relatórios dos analistas. A Marble Bar Asset Management (MBAM), uma empresa de investimentos com sede em Londres fundada em 2002, é uma das primeiras convertidas ao uso de tais tecnologias no local de trabalho. Ela desenvolveu uma plataforma de última geração, chamada RAID (Research Analysis & Information Database), para ajudar os gerentes de portfólio a filtrar grandes volumes de informações sobre eventos corporativos, desenvolvimentos de notícias e movimentos de ações.

A IA é muito útil durante a tomada de decisões de alto volume, quando os humanos podem estar cansados.

Outra maneira pela qual a IA pode prestar assistência é modelar o que um ser humano pode fazer. Como qualquer pessoa que usa o Google deve ter notado, os prompts aparecem quando uma frase de pesquisa é digitada. O texto preditivo em um smartphone oferece uma maneira semelhante de acelerar o processo de digitação. Esse tipo de modelagem de usuário, relacionado ao que às vezes é chamado bootstrapping crítico, foi desenvolvido há mais de 30 anos; pode ser facilmente aplicado à tomada de decisões. A IA o usaria para identificar a escolha que um funcionário tem maior probabilidade de fazer, dadas as escolhas anteriores desse funcionário, e sugeriria essa escolha como ponto de partida quando o funcionário se depara com várias decisões - acelerando, em vez de realmente fazer, o trabalho.

Vamos analisar isso em um contexto específico. Quando os funcionários da companhia aérea estão decidindo quanta comida e bebida colocar em um determinado voo, eles preenchem pedidos de catering, que envolvem uma certa quantidade de cálculo, juntamente com suposições baseadas em sua experiência em voos anteriores. Fazer as escolhas erradas incorre em custos: A subencomenda corre o risco de perturbar os clientes que podem evitar futuras viagens na companhia aérea. Pedidos em excesso significa que o excesso de comida será desperdiçado e o avião terá aumentado seu consumo de combustível desnecessariamente.

Um algoritmo pode ser muito útil nesse contexto. A IA pode prever o que o gerente de catering da companhia aérea solicitaria analisando suas escolhas anteriores ou usando regras definidas pelo gerente. Esse “preenchimento automático” de “pedidos recomendados” pode ser personalizado para cada voo usando todos os dados históricos relevantes, incluindo o consumo de alimentos e bebidas na rota em questão e até mesmo o comportamento de compra anterior dos passageiros no manifesto desse voo. Mas, como na digitação preditiva, os usuários humanos podem sobrescrever livremente conforme necessário; eles estão sempre no banco do motorista. A IA simplesmente os ajuda imitando ou antecipando seu estilo de decisão.

Não deve ser um exagero para os gerentes trabalharem com a IA dessa maneira. Já fazemos isso em nossas vidas pessoais, quando permitimos que a função de preenchimento automático preencha formulários para nós on-line. No local de trabalho, um gerente pode, por exemplo, definir regras específicas para um assistente de IA seguir ao preencher formulários. Na verdade, muitas ferramentas de software usadas atualmente no local de trabalho (como programas de classificação de crédito) já são exatamente isso: coleções de regras de decisão definidas pelo homem. O assistente de IA pode refinar as regras codificando as circunstâncias sob as quais o gerente realmente as segue. Esse aprendizado não precisa envolver nenhuma mudança no comportamento do gerente, muito menos qualquer esforço para “ensinar” o assistente.

Fase 2: O monitor

O próximo passo é configurar o sistema de IA para fornecer feedback em tempo real. Graças aos programas de aprendizado de máquina, a IA pode ser treinada para prever com precisão qual seria a decisão de um usuário em uma determinada situação (ausência de lapsos na racionalidade devido, por exemplo, excesso de confiança ou fadiga). Se um usuário estiver prestes a fazer uma escolha inconsistente com seu histórico de escolha, o sistema poderá sinalizar a discrepância. Isso é especialmente útil durante a tomada de decisões de alto volume, quando funcionários humanos podem estar cansados ou distraídos.

Pesquisas em psicologia, economia comportamental e ciência cognitiva mostram que os seres humanos têm capacidades de raciocínio limitadas e imperfeitas, especialmente quando se trata de problemas estatísticos e probabilísticos, que são onipresentes nos negócios. Vários estudos (dos quais um de nós, Chen, é co-autor) sobre decisões legais descobriram que os juízes concedem asilo político com mais frequência antes do almoço do que depois, que eles dão sentenças de prisão mais leves se sua equipe da NFL vencesse no dia anterior do que se perdesse, e que eles serão mais fáceis para um réu no aniversário do último. Claramente, a justiça poderia ser melhor servida se os tomadores de decisão humanos fossem auxiliados por um software que lhes dissesse quando uma decisão que eles planejavam tomar era inconsistente com suas decisões anteriores ou com a decisão que uma análise de variáveis puramente legais prediria.

A IA pode fornecer esse tipo de contribuição. Outro estudo (também com Chen como coautor) mostrou que os programas de IA que processam um modelo composto de variáveis legais básicas (construídas pelos autores do estudo) podem prever decisões de asilo com aproximadamente 80% de precisão na data em que um caso abre. Os autores adicionaram funcionalidade de aprendizagem ao programa, o que permite simular a tomada de decisão de um juiz individual, baseando-se nas decisões anteriores desse juiz.

A abordagem se traduz bem em outros contextos. Por exemplo, quando os gerentes de portfólio (PMs) da Marble Bar Asset Management consideram decisões de compra ou venda que podem aumentar o risco geral do portfólio - por exemplo, aumentando a exposição a um determinado setor ou geografia - o sistema os alerta por meio de um pop-up durante um processo de transação computadorizado para que eles pode se ajustar adequadamente. Um PM pode ignorar esse feedback, desde que os limites de risco da empresa sejam observados. Mas, em qualquer caso, o feedback ajuda o PM a refletir sobre suas decisões.

É claro que a IA nem sempre é “certa”. Muitas vezes, suas sugestões não levam em consideração algumas informações privadas confiáveis às quais o tomador de decisão humano tem acesso, de modo que a IA pode desviar um funcionário do curso em vez de simplesmente corrigir possíveis vieses comportamentais. É por isso que usá-lo deve ser como um diálogo, no qual o algoritmo fornece cutucadas de acordo com os dados que possui enquanto o humano ensina a IA, explicando por que ele ou ela anulou um empurrão específico. Isso melhora a utilidade da IA e preserva a autonomia do tomador de decisão humano.

Infelizmente, muitos sistemas de IA estão configurados para usurpar essa autonomia. Depois que um algoritmo sinaliza uma transação bancária como possivelmente fraudulenta, por exemplo, os funcionários geralmente não conseguem aprovar a transação sem compensá-la com um supervisor ou mesmo com um auditor externo. Às vezes, desfazer a escolha de uma máquina é quase impossível — uma fonte persistente de frustração para clientes e profissionais de atendimento ao cliente. Em muitos casos, a justificativa para uma escolha de IA é opaca, e os funcionários não estão em posição de questionar essa escolha, mesmo quando erros foram cometidos.

É claro que a IA nem sempre é “certa”. É por isso que usá-lo deve ser como um diálogo.

A privacidade é outro grande problema quando as máquinas coletam dados sobre as decisões que as pessoas tomam. Além de dar aos humanos o controle em suas trocas com a IA, precisamos garantir que todos os dados coletados sobre eles sejam mantidos em sigilo. Uma parede deve separar a equipe de engenharia da gerência; caso contrário, os funcionários podem se preocupar que, se interagirem livremente com o sistema e cometerem erros, poderão sofrer por eles.

Além disso, as empresas devem definir regras sobre como projetar e interagir com a IA para garantir a consistência organizacional nas normas e práticas. Essas regras podem especificar o nível de precisão preditiva necessário para mostrar um empurrão ou oferecer um motivo para um; critérios para a necessidade de um empurrão; e as condições sob as quais um funcionário deve seguir as instruções da IA ou encaminhá-la a um superior em vez de aceitá-la ou rejeitá-la.

Para ajudar os funcionários a manter seu senso de controle na fase 2, aconselhamos gerentes e projetistas de sistemas a envolvê-los no design: envolva-os como especialistas para definir os dados que serão usados e determinar a verdade básica; familiarizá-los com modelos durante o desenvolvimento; e fornecer treinamento e interação como esses modelos são implantados. No processo, os funcionários verão como os modelos são construídos, como os dados são gerenciados e por que as máquinas fazem as recomendações que fazem.

Fase 3: O treinador

Em uma pesquisa recente da PwC, quase 60% dos entrevistados disseram que gostariam de receber feedback de desempenho diariamente ou semanalmente. Não é difícil ver o porquê. Como Peter Drucker afirmou em seu famoso Harvard Business Review artigo” “Administrando-se”, as pessoas geralmente não sabem no que são boas. E quando pensam que sabem, geralmente estão errados.

O problema é que a única maneira de descobrir pontos fortes e oportunidades de melhoria é por meio de uma análise cuidadosa das principais decisões e ações. Isso requer documentar as expectativas sobre os resultados e, em seguida, nove meses a um ano depois, comparar essas expectativas com o que realmente aconteceu. Assim, o feedback que os funcionários recebem geralmente vem de superiores hierárquicos durante uma revisão, não em um momento ou em um formato escolhido pelo destinatário. Isso é lamentável, porque, como Tessa West, da Universidade de Nova York, descobriu em uma neurociência recente estudar, quanto mais as pessoas sentirem que sua autonomia está protegida e que estão no controle da conversa — capazes de escolher, por exemplo, quando o feedback é dado — melhor elas respondem a ela.

A IA poderia resolver esse problema. Os recursos que já mencionamos podem facilmente gerar feedback para os funcionários, permitindo que eles analisem seu próprio desempenho e reflitam sobre variações e erros. Um resumo mensal analisando dados extraídos de seu comportamento anterior pode ajudá-los a entender melhor seus padrões e práticas de decisão. Algumas empresas, principalmente no setor financeiro, estão adotando essa abordagem. Os gerentes de portfólio da MBAM, por exemplo, recebem feedback de um sistema de análise de dados que captura decisões de investimento em nível individual.

null Jean-Baptiste Perrot

Os dados podem revelar vieses interessantes e variados entre os PMs. Alguns podem ser mais avessos à perda do que outros, mantendo investimentos de baixo desempenho por mais tempo do que deveriam. Outros podem estar confiantes demais, possivelmente assumindo uma posição muito grande em um determinado investimento. A análise identifica esses comportamentos e, como um treinador, fornece feedback personalizado que destaca as mudanças comportamentais ao longo do tempo, sugerindo como melhorar as decisões. Mas cabe aos PMs decidir como incorporar o feedback. A liderança da MBAM acredita que esse “aprimoramento comercial” está se tornando um diferencial central que ajuda a desenvolver gerentes de portfólio e torna a organização mais atraente.

Além disso, assim como um bom mentor aprende com os insights das pessoas que estão sendo orientadas, um “coachbot” de aprendizado de máquina aprende com as decisões de um funcionário humano capacitado. No relacionamento que descrevemos, um ser humano pode discordar do coachbot — e isso cria novos dados que mudarão o modelo implícito da IA. Por exemplo, se um gerente de portfólio decidir não negociar uma ação destacada devido a eventos recentes da empresa, ele poderá fornecer uma explicação para o sistema. Com o feedback, o sistema captura continuamente dados que podem ser analisados para fornecer insights.

Se os funcionários puderem se relacionar e controlar as trocas com inteligência artificial, é mais provável que eles vejam isso como um canal seguro para feedback que visa ajudar em vez de avaliar o desempenho. Escolher a interface certa é útil para esse fim. No MBAM, por exemplo, as ferramentas de aprimoramento de negociação - visuais, por exemplo - são personalizadas para refletir as preferências de um PM.

Como na fase 2, envolver os funcionários na concepção do sistema é essencial. Quando a IA é um treinador, as pessoas ficam ainda mais temerosas com a falta de poder. Pode facilmente parecer um concorrente e também um parceiro - e quem quer se sentir menos inteligente do que uma máquina? As preocupações com autonomia e privacidade podem ser ainda mais fortes. Trabalhar com um coach exige honestidade, e as pessoas podem hesitar em ser abertas com um que possa compartilhar dados pouco lisonjeiros com o pessoal do RH.

A implantação da IA das formas descritas nas três primeiras fases tem, obviamente, algumas desvantagens. A longo prazo, as novas tecnologias criam mais empregos do que destroem, mas, enquanto isso, os mercados de trabalho podem ser dolorosamente interrompidos. Além disso, como Matt Beane argumenta em” Aprendendo a trabalhar com máquinas inteligentes” (HBR, setembro-outubro de 2019), as empresas que implantam IA podem deixar os funcionários com menos oportunidades de aprendizado prático e orientação.

Quando a IA é um coach, pode facilmente parecer um concorrente e também um parceiro.

Há algum risco, portanto, não apenas de perder empregos de nível básico (porque os assistentes digitais podem efetivamente substituir os humanos), mas também de comprometer a capacidade dos futuros tomadores de decisão de pensar por si mesmos. Isso não é inevitável, no entanto. Como sugere Beane, as empresas poderiam usar sua inteligência artificial para criar oportunidades de aprendizado diferentes e melhores para seus funcionários, melhorando o sistema, tornando-o mais transparente e dando aos funcionários mais controle. Como os futuros participantes da força de trabalho terão crescido em um local de trabalho humano mais máquina, eles quase certamente serão mais rápidos do que seus colegas pré-IA em identificar oportunidades de inovar e introduzir atividades que agregam valor e criam empregos - o que nos leva à fase final.

Fase 4: O companheiro de equipe

Edwin Hutchins, um antropólogo cognitivo, desenvolveu o que é conhecido como a teoria da cognição distribuída. É baseado em seu estudo da navegação naval, que, ele mostrou, envolveu uma combinação de marinheiros, cartas, governantes, bússolas e uma ferramenta de plotagem. A teoria se relaciona amplamente com o conceito de mente estendida, que postula que o processamento cognitivo e os atos mentais associados, como crença e intenção, não estão necessariamente limitados ao cérebro, ou mesmo ao corpo. Ferramentas e instrumentos externos podem, nas condições certas, desempenhar um papel no processamento cognitivo e criar o que é conhecido como sistema acoplado.

De acordo com esse pensamento, na fase final da jornada de implementação da IA (que, até onde sabemos, nenhuma organização adotou), as empresas desenvolveriam uma rede acoplada de humanos e máquinas na qual ambos contribuem com experiência. Acreditamos que, à medida que a IA melhora por meio de suas interações com usuários individuais, analisando e até modelando usuários especialistas com base em dados sobre suas decisões e comportamentos anteriores, uma comunidade de especialistas (humanos e máquinas) surgirá naturalmente em organizações que têm coachbots de IA totalmente integrados. Por exemplo, um gerente de compras que, com um clique no momento da decisão, pudesse ver qual preço alguém daria poderia se beneficiar de um coletivo personalizado de especialistas.

Embora a tecnologia para criar esse tipo de inteligência coletiva exista agora, essa fase está repleta de desafios. Por exemplo, qualquer integração da IA deve evitar criar preconceitos antigos ou novos e deve respeitar as preocupações com a privacidade humana para que as pessoas possam confiar na IA tanto quanto confiariam em um parceiro humano. Isso por si só é um grande desafio, dado o volume de pesquisas que demonstram como é difícil construir confiança entre os seres humanos.

As melhores abordagens para construir confiança no local de trabalho dependem da relação entre confiança e compreensão - um assunto de estudo de David Danks e colegas da Carnegie Mellon. De acordo com esse modelo, confio em alguém porque entendo os valores, desejos e intenções dessa pessoa, e eles demonstram que ele ou ela tem meus melhores interesses no coração. Embora a compreensão tenha sido historicamente uma base para construir confiança nas relações humanas, ela é potencialmente adequada para cultivar parcerias humano-IA também, porque o medo dos funcionários em relação à inteligência artificial geralmente se baseia na falta de compreensão de como a IA funciona.

Na construção do entendimento, um desafio particular é definir o que significa “explicação” — e muito menos “boa explicação”. Esse desafio é o foco de muitas pesquisas. Por exemplo, um de nós (Evgeniou) está trabalhando para abrir “caixas pretas” de aprendizado de máquina por meio das chamadas explicações contrafatuais. Uma explicação contrafactual ilumina uma decisão específica de um sistema de IA (por exemplo, para aprovar crédito para uma determinada transação) identificando uma pequena lista de características da transação que impulsionaram a decisão de uma forma ou de outra. Se alguma das características fosse diferente (ou contrária ao fato), o sistema teria tomado uma decisão diferente (o crédito teria sido negado).

Evgeniou também está explorando o que as pessoas percebem como boas explicações para as decisões de IA. Por exemplo, eles veem uma explicação como melhor quando é apresentada em termos de uma combinação lógica de recursos (“A transação foi aprovada porque tinha características X, Y, Z”) ou quando é apresentada em relação a outras decisões (“A transação foi aprovada porque se parece com outras aprovadas transações, e aqui estão elas para você ver”)? À medida que a pesquisa sobre o que torna a IA explicável continua, os sistemas de IA devem se tornar mais transparentes, facilitando assim a confiança.

CONCLUSÃO

A adoção de novas tecnologias sempre foi um grande desafio — e quanto mais impacto uma tecnologia tem, maior é o desafio. Devido ao seu potencial impacto, a inteligência artificial pode ser percebida como particularmente difícil de implementar. No entanto, se feito com atenção, a adoção pode ser bastante tranquila. É exatamente por isso que as empresas devem garantir que o design e o desenvolvimento da IA sejam responsáveis - especialmente no que diz respeito à transparência, autonomia de decisão e privacidade - e que envolva as pessoas que trabalharão com ela. Caso contrário, eles temerão razoavelmente serem restringidos - ou mesmo substituídos - por máquinas que estão tomando todo tipo de decisão de maneiras que não entendem.

Superar esses medos para criar uma relação de confiança com a IA é fundamental. Em todas as quatro fases descritas nestas páginas, os humanos determinam as regras básicas. Com um design responsável, a IA pode se tornar um verdadeiro parceiro no local de trabalho, processando rapidamente grandes volumes de dados variados de maneira consistente para aprimorar a intuição e a criatividade dos seres humanos, que por sua vez ensinam a máquina.

Nota do editor: Theodoros Evgeniou é consultor da Marble Bar Asset Management (uma empresa de investimentos mencionada neste artigo).

A version of this article appeared in the July–August 2020 issue of Harvard Business Review.