Idea en resumen

El problema

A muchas empresas les cuesta aplicar la IA y no logran las mejoras de productividad que buscan.

Por qué sucede

Los ejecutivos a menudo no dejan claro que utilizan la IA para ayudar a las personas a aumentar la productividad en lugar de sustituirlos.

Cómo solucionarlo

Tratar la adopción de la IA como un proceso de incorporación que consta de cuatro fases: la IA como asistente, como monitor, como entrenador, y como compañero de equipo.

Aviso: Traducido con el uso de inteligencia artificial; puede contener errores. Participe en esta encuesta para hacernos llegar sus comentarios y obtenga información en las preguntas frecuentes.
Read in English

En una encuesta de 2018 de Workforce Institute a 3000 gerentes de ocho países industrializados, la mayoría de los encuestados describió la inteligencia artificial como una valiosa herramienta de productividad.

Es fácil entender por qué: la IA aporta beneficios tangibles en velocidad, precisión y coherencia de procesamiento (las máquinas no cometen errores porque están cansadas), por lo que muchos profesionales ahora confían en ella. Algunos especialistas médicos, por ejemplo, utilizan herramientas de IA para ayudar a realizar diagnósticos y tomar decisiones sobre el tratamiento.

Pero los que respondieron a esa encuesta también expresaron su temor de que la IA les quitara el trabajo. No están solos. Los Guardián informó recientemente de que más de 6 millones de trabajadores en el Reino Unido temen ser reemplazados por máquinas. Académicos y ejecutivos que conocemos en conferencias y seminarios se hacen eco de estos temores. Las ventajas de la IA se pueden proyectar con una luz mucho más oscura: ¿por qué se necesitarían humanos cuando las máquinas pueden hacer un mejor trabajo?

La prevalencia de estos temores sugiere que las organizaciones que buscan cosechar los beneficios de la IA deben tener cuidado al presentarla a las personas que se espera que trabajen con ella. Andrew Wilson, hasta enero de 2020, el CIO de Accenture dice: «Cuanto mayor sea el grado de enfoque de la organización en las personas que ayudan a la IA y la IA ayuda a las personas, mayor será el valor alcanzado». Accenture ha descubierto que cuando las empresas dejan claro que utilizan la IA para ayudar a las personas en lugar de sustituirlas, superan significativamente a las empresas que no establecen ese objetivo (o no tienen claros sus objetivos de IA) en la mayoría de las dimensiones de la productividad gerencial, en particular la velocidad, la escalabilidad y eficacia de la toma de decisiones.

En otras palabras, al igual que cuando un nuevo talento se une a un equipo, la IA debe estar preparada para tener éxito en lugar de fracasar. Un empleador inteligente forma a los nuevos empleados asignándoles tareas sencillas que crean experiencia práctica en un contexto no crítico y les asigna mentores para que ofrezcan ayuda y consejos. Esto permite a los recién llegados aprender mientras que otros se centran en tareas de mayor valor. A medida que adquieren experiencia y demuestran que pueden hacer el trabajo, sus mentores confían cada vez más en ellos como cajas de resonancia y les confían decisiones más sustantivas. Con el tiempo, un aprendiz se convierte en socio, aportando habilidades y conocimientos.

null Jean-Baptiste Perrot

Creemos que este enfoque también puede funcionar para la inteligencia artificial. En las páginas siguientes nos basamos en nuestras investigaciones y consultorías y las de otros sobre la implementación de sistemas de información y IA, junto con estudios organizativos de innovación y prácticas laborales, para presentar un enfoque de cuatro fases para la implementación de la IA. Permite a las empresas cultivar la confianza de la gente, una condición clave para la adopción, y trabajar por un sistema cognitivo distribuido de IA humana en el que las personas y la IA ambos mejorar continuamente. Muchas organizaciones han experimentado con la fase 1 y algunas han progresado a las fases 2 y 3. Por ahora, la fase 4 puede ser principalmente un ejercicio de «predicción del futuro» del que vemos algunos signos tempranos, pero es factible desde un punto de vista tecnológico y proporcionaría más valor a las empresas a medida que interactúan con la inteligencia artificial.

Fase 1: El asistente

Esta primera fase de incorporación de la inteligencia artificial es más bien como el proceso de formación de un asistente. Enseñe al nuevo empleado algunas reglas fundamentales y le dé algunas tareas básicas pero que consumen mucho tiempo que realiza normalmente (como rellenar formularios en línea o resumir documentos), lo que le permite centrarse en aspectos más importantes del trabajo. El alumno aprende observándolo, realizando las tareas y haciendo preguntas.

Una tarea común de los asistentes de IA es clasificar los datos. Un ejemplo son los sistemas de recomendación que las empresas utilizan desde mediados de la década de 1990 para ayudar a los clientes a filtrar miles de productos y encontrar los más relevantes para ellos. Amazon y Netflix se encuentran entre los líderes en esta tecnología.

Cada vez más decisiones empresariales requieren ahora este tipo de clasificación de datos. Cuando, por ejemplo, los gestores de carteras eligen acciones en las que invertir, la información disponible es mucho más de lo que un humano puede procesar de manera viable, y siempre sale nueva información que se suma al registro histórico. El software puede hacer que la tarea sea más manejable filtrando inmediatamente las acciones para cumplir los criterios de inversión predefinidos. El procesamiento del lenguaje natural, por su parte, puede identificar las noticias más relevantes para una empresa e incluso evaluar la opinión general sobre un próximo evento corporativo, como se refleja en los informes de los analistas. Marble Bar Asset Management (MBAM), una empresa de inversiones con sede en Londres fundada en 2002, se convierte en una de las primeras en utilizar estas tecnologías en el lugar de trabajo. Ha desarrollado una plataforma de última generación, llamada RAID (Research, Analysis & Information Database), para ayudar a los gestores de carteras a filtrar grandes volúmenes de información sobre eventos corporativos, novedades y movimientos de acciones.

La IA es muy útil durante la toma de decisiones de gran volumen, cuando los humanos pueden estar cansados.

Otra forma en que la IA puede prestar asistencia es modelar lo que un humano podría hacer. Como habrá notado cualquiera que utilice Google, las indicaciones aparecen cuando se escribe una frase de búsqueda. El texto predictivo en un teléfono inteligente ofrece una forma similar de acelerar el proceso de escritura. Este tipo de modelado de usuarios, relacionado con lo que a veces se llama bootstrapping crítico, se desarrolló hace más de 30 años; se puede aplicar fácilmente a la toma de decisiones. La IA la usaría para identificar la elección que es más probable que haga un empleado, dadas las elecciones pasadas de ese empleado, y sugeriría esa elección como punto de partida cuando el empleado se enfrenta a múltiples decisiones: acelerar, en lugar de hacer realmente, el trabajo.

Veamos esto en un contexto específico. Cuando los empleados de la aerolínea deciden la cantidad de comida y bebida que van a poner en un vuelo determinado, rellenan los pedidos de catering, que implican una cierta cantidad de cálculo junto con suposiciones basadas en su experiencia en vuelos anteriores. Tomar las decisiones equivocadas conlleva costes: hacer un pedido insuficiente corre el riesgo de molestar a los clientes, que pueden evitar futuros viajes en la línea aérea. Hacer un pedido excesivo significa que el exceso de comida se desperdiciará y el avión habrá aumentado su consumo de combustible innecesariamente.

Un algoritmo puede resultar muy útil en este contexto. La IA puede predecir lo que pediría el gerente de catering de la aerolínea analizando sus elecciones pasadas o utilizando las reglas establecidas por el gerente. Este «autocompletado» de «pedidos recomendados» se puede personalizar para cada vuelo utilizando todos los datos históricos pertinentes, incluido el consumo de alimentos y bebidas en la ruta en cuestión e incluso el comportamiento de compra anterior de los pasajeros en el manifiesto de ese vuelo. Pero al igual que con la escritura predictiva, los usuarios humanos pueden sobrescribir libremente según sea necesario; siempre están en el asiento del conductor. La IA simplemente los ayuda imitando o anticipándose a su estilo de decisión.

No debería ser exagerado para los gerentes trabajar con la IA de esta manera. Ya lo hacemos en nuestra vida personal, cuando permitimos que la función de autocompletar complete formularios para nosotros en línea. En el lugar de trabajo, un gerente puede, por ejemplo, definir reglas específicas que debe seguir un asistente de IA al rellenar formularios. De hecho, muchas herramientas de software que se utilizan actualmente en el lugar de trabajo (como los programas de calificación crediticia) ya son solo eso: colecciones de reglas de decisión definidas por el hombre. El asistente de IA puede refinar las reglas codificando las circunstancias en las que el gerente las sigue realmente. Este aprendizaje no tiene por qué implicar ningún cambio en el comportamiento del gerente, y mucho menos ningún esfuerzo por «enseñar» al asistente.

Fase 2: El monitor

El siguiente paso es configurar el sistema de IA para que proporcione comentarios en tiempo real. Gracias a los programas de aprendizaje automático, se puede entrenar a la IA para pronosticar con precisión cuál sería la decisión de un usuario en una situación determinada (ausencia de fallos de racionalidad debido, por ejemplo, a un exceso de confianza o fatiga). Si un usuario está a punto de hacer una elección que no coincide con su historial de elecciones, el sistema puede marcar la discrepancia. Esto es especialmente útil durante la toma de decisiones de gran volumen, cuando los empleados humanos pueden estar cansados o distraídos.

La investigación en psicología, economía del comportamiento y ciencia cognitiva demuestra que los humanos tienen capacidades de razonamiento limitadas e imperfectas, especialmente cuando se trata de problemas estadísticos y probabilísticos, que son omnipresentes en los negocios. Varios estudios (de los cuales uno de nosotros, Chen, es coautor) sobre decisiones legales encontraron que los jueces conceden asilo político con más frecuencia antes del almuerzo que después, que imponen penas de prisión más leves si su equipo de la NFL gana el día anterior que si pierde, y que le irán más fácilmente a un acusado en el el cumpleaños de este último. Está claro que la justicia podría estar mejor servida si los tomadores de decisiones humanas estuvieran asistidos por un software que les dijera cuándo una decisión que tenían previsto tomar era incompatible con sus decisiones anteriores o con la decisión que un análisis de variables puramente legales predeciría.

La IA puede ofrecer ese tipo de información. Otro estudio (también con Chen como coautor) mostró que los programas de IA que procesan un modelo compuesto por variables legales básicas (construidas por los autores del estudio) pueden predecir las decisiones de asilo con aproximadamente un 80% de precisión en la fecha de apertura de un caso. Los autores han añadido una función de aprendizaje al programa, que le permite simular la toma de decisiones de un juez individual basándose en decisiones pasadas de ese juez.

El enfoque se traduce bien en otros contextos. Por ejemplo, cuando los gestores de carteras (PM) de Marble Bar Asset Management consideran decisiones de compra o venta que pueden aumentar el riesgo general de la cartera (por ejemplo, al aumentar la exposición a un sector o ubicación geográfica en particular), el sistema les alerta a través de una ventana emergente durante un proceso de transacción informatizado para que puede ajustarse adecuadamente. Un PM puede ignorar estos comentarios siempre que se respeten los límites de riesgo de la empresa. Pero en cualquier caso, los comentarios ayudan al primer ministro a reflexionar sobre sus decisiones.

Por supuesto que la IA no siempre tiene «razón». A menudo, sus sugerencias no tienen en cuenta cierta información privada fiable a la que tiene acceso la persona que toma las decisiones, por lo que la IA podría desviar a un empleado en lugar de simplemente corregir posibles sesgos de comportamiento. Por eso su uso debería ser como un diálogo, en el que el algoritmo proporciona empujones según los datos que tiene mientras el humano enseña a la IA explicando por qué anuló un empujón en particular. Esto mejora la utilidad de la IA y preserva la autonomía del tomador de decisiones humano.

Desafortunadamente, muchos sistemas de IA están configurados para usurpar esa autonomía. Una vez que un algoritmo ha marcado una transacción bancaria como posiblemente fraudulenta, por ejemplo, a menudo los empleados no pueden aprobar la transacción sin liquidarla con un supervisor o incluso con un auditor externo. A veces, deshacer la elección de una máquina es casi imposible, una fuente persistente de frustración tanto para los clientes como para los profesionales del servicio de atención al cliente. En muchos casos, la justificación de una elección de la IA es opaca y los empleados no están en condiciones de cuestionar esa elección, incluso cuando se han cometido errores.

Por supuesto que la IA no siempre tiene «razón». Por eso usarlo debería ser como un diálogo.

La privacidad es otro gran problema cuando las máquinas recopilan datos sobre las decisiones que toma la gente. Además de dar a los humanos el control en sus intercambios con la IA, tenemos que garantizar que todos los datos que recopilen sobre ellos se mantengan confidenciales. Un muro debería separar al equipo de ingenieros de la dirección; de lo contrario, a los empleados les puede preocupar que si interactúan libremente con el sistema y cometen errores, más tarde sufran por ellos.

Además, las empresas deben establecer reglas sobre el diseño y la interacción con la IA para garantizar la coherencia organizacional en las normas y prácticas. Estas reglas podrían especificar el nivel de precisión predictiva necesario para mostrar un codazo u ofrecer una razón para uno; los criterios para la necesidad de un codazo; y las condiciones en las que un empleado debe seguir las instrucciones de la IA o remitirlas a un superior en lugar de aceptarlas o rechazarlas.

Para ayudar a los empleados a conservar su sentido del control en la fase 2, aconsejamos a los gerentes y diseñadores de sistemas que los involucren en el diseño: hágalos participar como expertos para definir los datos que se utilizarán y determinar la verdad sobre el terreno; que se familiaricen con los modelos durante el desarrollo y proporcionen formación e interacción a medida que los modelos están desplegados. Durante el proceso, los empleados verán cómo se construyen los modelos, cómo se gestionan los datos y por qué las máquinas hacen las recomendaciones que hacen.

Fase 3: El entrenador

En una encuesta reciente de PwC, casi el 60% de los encuestados dijeron que les gustaría recibir comentarios sobre el rendimiento a diario o semanalmente. No es difícil ver por qué. Como afirmó Peter Drucker en su famosa Harvard Business Review artículo» «Gestionarse a sí mismo», la gente por lo general no sabe en lo que es buena. Y cuando creen que sí lo saben, por lo general se equivocan.

El problema es que la única manera de descubrir los puntos fuertes y las oportunidades de mejora es mediante un análisis cuidadoso de las decisiones y acciones clave. Eso requiere documentar las expectativas sobre los resultados y, después, de nueve meses a un año después, comparar esas expectativas con lo que realmente sucedió. Por lo tanto, los comentarios que reciben los empleados suelen provenir de superiores jerárquicos durante una revisión, no en el momento ni en el formato que elija el destinatario. Eso es lamentable, porque, como Tessa West de la Universidad de Nueva York descubrió en un reciente neurociencia estudiar, cuanto más sienta la gente que su autonomía está protegida y que tienen el control de la conversación (pueden elegir, por ejemplo, cuándo se da la retroalimentación), mejor responden a ella.

La IA podría solucionar este problema. Las capacidades que ya hemos mencionado podrían generar fácilmente comentarios para los empleados, permitiéndoles observar su propio rendimiento y reflexionar sobre las variaciones y los errores. Un resumen mensual en el que se analicen los datos extraídos de su comportamiento anterior podría ayudarlos a comprender mejor sus patrones y prácticas de decisión. Algunas empresas, sobre todo del sector financiero, están adoptando este enfoque. Los gestores de carteras de MBAM, por ejemplo, reciben comentarios de un sistema de análisis de datos que captura las decisiones de inversión a nivel individual.

null Jean-Baptiste Perrot

Los datos pueden revelar sesgos interesantes y variables entre los PM. Algunos pueden ser más reacios a las pérdidas que otros, y se aferran a inversiones con bajo rendimiento durante más tiempo del que deberían. Otros pueden tener demasiada confianza, posiblemente ocupando una posición demasiado grande en una inversión determinada. El análisis identifica estos comportamientos y, como un entrenador, proporciona comentarios personalizados que destacan los cambios de comportamiento a lo largo del tiempo, sugiriendo cómo mejorar las decisiones. Pero corresponde a los PM decidir cómo incorporar los comentarios. Los líderes de MBAM creen que esta «mejora de la negociación» se está convirtiendo en un diferenciador fundamental que ayuda a desarrollar los gestores de carteras y hace que la organización sea más atractiva.

Además, al igual que un buen mentor aprende de las opiniones de las personas a las que se asesora, un «robot entrenador» de aprendizaje automático aprende de las decisiones de un empleado humano capacitado. En la relación que hemos descrito, un humano puede estar en desacuerdo con el robot entrenador, y eso crea nuevos datos que cambiarán el modelo implícito de la IA. Por ejemplo, si un gestor de carteras decide no negociar con una acción destacada debido a acontecimientos recientes de la empresa, puede dar una explicación al sistema. Con los comentarios, el sistema captura continuamente datos que se pueden analizar para proporcionar información.

Si los empleados pueden identificarse y controlar los intercambios con la inteligencia artificial, es más probable que la vean como un canal seguro de comentarios que tiene como objetivo ayudar más que evaluar el rendimiento. Elegir la interfaz correcta es útil para este fin. En MBAM, por ejemplo, las herramientas de mejora de la negociación (por ejemplo, imágenes) se personalizan para reflejar las preferencias de un PM.

Al igual que en la fase 2, es fundamental que los empleados participen en el diseño del sistema. Cuando la IA es entrenadora, la gente temerá aún más la falta de poder. Puede parecer fácilmente un competidor además de un socio, y ¿quién quiere sentirse menos inteligente que una máquina? Las preocupaciones por la autonomía y la privacidad pueden ser aún mayores. Trabajar con un entrenador requiere honestidad y la gente puede dudar en ser abierta con uno que pueda compartir datos poco halagadores con la gente de Recursos Humanos.

El despliegue de la IA de la manera descrita en las tres primeras fases, por supuesto, tiene algunas desventajas. A largo plazo, las nuevas tecnologías crean más empleos de los que destruyen, pero mientras tanto los mercados laborales pueden verse gravemente perturbados. Además, como sostiene Matt Beane en» Aprender a trabajar con máquinas inteligentes» (HBR, septiembre-octubre de 2019), las empresas que despliegan IA pueden dejar a los empleados con menos oportunidades de aprendizaje práctico y orientación.

Cuando la IA es entrenadora, puede parecer fácilmente un competidor además de un socio.

Por lo tanto, existe cierto riesgo no solo de perder trabajos de nivel básico (porque los asistentes digitales pueden reemplazar eficazmente a los humanos), sino también de comprometer la capacidad de los futuros tomadores de decisiones para pensar por sí mismos. Sin embargo, eso no es inevitable. Como sugiere Beane, las empresas podrían utilizar su inteligencia artificial para crear diferentes y mejores oportunidades de aprendizaje para sus empleados, al tiempo que mejoran el sistema haciéndolo más transparente y dando a los empleados más control. Dado que los futuros participantes en la fuerza laboral habrán crecido en un lugar de trabajo de persona más máquina, es casi seguro que serán más rápidos que sus colegas de antes de la IA a la hora de detectar oportunidades para innovar e introducir actividades que añadan valor y creen empleo, lo que nos lleva a la fase final.

Fase 4: El compañero de equipo

Edwin Hutchins, antropólogo cognitivo, desarrolló lo que se conoce como la teoría de la cognición distribuida. Se basa en su estudio de la navegación de barcos, que, según demostró, implicaba una combinación de marineros, cartas, reglas, brújulas y una herramienta de trazado. La teoría se relaciona en términos generales con el concepto de mente ampliada, que postula que el procesamiento cognitivo y los actos mentales asociados, como la creencia y la intención, no se limitan necesariamente al cerebro o incluso al cuerpo. Las herramientas e instrumentos externos pueden, en las condiciones adecuadas, desempeñar un papel en el procesamiento cognitivo y crear lo que se conoce como sistema acoplado.

De acuerdo con esta idea, en la fase final del proceso de implementación de la IA (que hasta donde sabemos ninguna organización ha adoptado aún) las empresas desarrollarían una red acoplada de humanos y máquinas en la que ambos aportan experiencia. Creemos que a medida que la IA mejora a través de sus interacciones con usuarios individuales, analizando e incluso modelando usuarios expertos basándose en datos sobre sus decisiones y comportamientos pasados, surgirá naturalmente una comunidad de expertos (humanos y máquinas) en las organizaciones que tengan robots entrenadores de IA totalmente integrados. Por ejemplo, un gerente de compras que, con un solo clic en el momento de la decisión, pudiera ver el precio que daría otra persona podría beneficiarse de un colectivo de expertos personalizado.

Aunque la tecnología para crear este tipo de inteligencia colectiva ya existe, esta fase está plagada de desafíos. Por ejemplo, cualquier integración de la IA debe evitar crear prejuicios antiguos o nuevos y debe respetar las preocupaciones de privacidad humana para que la gente pueda confiar en la IA tanto como en un socio humano. Eso en sí mismo es un desafío bastante grande, dado el volumen de investigación que demuestra lo difícil que es generar confianza entre los humanos.

Los mejores enfoques para generar confianza en el lugar de trabajo se basan en la relación entre confianza y comprensión, un tema de estudio de David Danks y sus colegas de Carnegie Mellon. Según este modelo, confío en alguien porque entiendo los valores, los deseos y las intenciones de esa persona y demuestran que se preocupa por mis intereses. Aunque históricamente la comprensión ha sido una base para generar confianza en las relaciones humanas, potencialmente es muy adecuada para cultivar también las asociaciones entre humanos y la IA, porque el miedo de los empleados a la inteligencia artificial normalmente se basa en la falta de comprensión de cómo funciona la IA.

Para fomentar la comprensión, un desafío particular es definir lo que significa «explicación», y mucho menos «buena explicación». Este desafío es el centro de mucha investigación. Por ejemplo, uno de nosotros (Evgeniou) está trabajando para abrir las «cajas negras» del aprendizaje automático mediante las llamadas explicaciones contrafácticas. Una explicación contrafáctica ilumina una decisión concreta de un sistema de IA (por ejemplo, aprobar el crédito para una transacción determinada) identificando una breve lista de características de la transacción que llevaron a la decisión en un sentido u otro. Si alguna de las características hubiera sido diferente (o contraria al hecho), el sistema habría tomado una decisión diferente (se habría denegado el crédito).

Evgeniou también está explorando lo que la gente percibe como buenas explicaciones para las decisiones de IA. Por ejemplo, ¿ven una explicación mejor cuando se presenta en términos de una combinación lógica de características («La transacción se aprobó porque tenía características X, Y, Z») o cuando se presenta en relación con otras decisiones («La transacción se aprobó porque parece que otros aprobados transacciones, y aquí están para que las vea»)? A medida que continúe la investigación sobre qué hace que la IA sea explicable, los sistemas de IA deberían volverse más transparentes, facilitando así la confianza.

CONCLUSIÓN

La adopción de nuevas tecnologías siempre ha sido un gran desafío, y cuanto más impacto tiene una tecnología, mayor es el desafío. Debido a su posible impacto, la inteligencia artificial puede percibirse como particularmente difícil de implementar. Sin embargo, si se hace con atención, la adopción puede ser bastante fluida. Precisamente por eso las empresas deben asegurarse de que el diseño y el desarrollo de la IA son responsables, especialmente en lo que respecta a la transparencia, la autonomía de decisión y la privacidad, y de que involucra a las personas que trabajarán con ella. De lo contrario, temerán razonablemente ser limitados, o incluso reemplazados, por máquinas que toman todo tipo de decisiones de maneras que no entienden.

Superar estos miedos para crear una relación de confianza con la IA es clave. En las cuatro fases que se describen en estas páginas, los humanos determinan las reglas de juego. Con un diseño responsable, la IA puede convertirse en un verdadero socio en el lugar de trabajo, procesando rápidamente grandes volúmenes de datos variados de manera coherente para mejorar la intuición y la creatividad de los humanos, que a su vez enseñan a la máquina.

Nota del editor: Theodoros Evgeniou es asesor de Marble Bar Asset Management (empresa de inversiones mencionada en este artículo).

A version of this article appeared in the July–August 2020 issue of Harvard Business Review.