Aviso: Traducido con el uso de inteligencia artificial; puede contener errores. Participe en esta encuesta para hacernos llegar sus comentarios y obtenga información en las preguntas frecuentes.
Read in English

A pesar del aumento de las inversiones en inteligencia artificial (IA) por parte de las empresas actuales, la confianza en los conocimientos proporcionados por la IA puede ser un acierto o un fracaso con los directivos. ¿Los ejecutivos simplemente se resisten a una tecnología nueva, desconocida y aún no probada, o sus dudas tienen sus raíces en algo más profundo? Los ejecutivos se han resistido durante mucho tiempo al análisis de datos para la toma de decisiones de alto nivel y siempre han preferido confiar en la toma de decisiones a nivel intestinal basada en la experiencia de campo en lugar de en las decisiones asistidas por IA.

La IA se ha adoptado ampliamente para la toma de decisiones tácticas de bajo nivel en muchos sectores: la calificación crediticia, las recomendaciones de ventas adicionales, los chatbots o la gestión del rendimiento de las máquinas son ejemplos de casos en los que se implementa con éxito. Sin embargo, aún no se ha demostrado su valentía para decisiones estratégicas de alto nivel, como la refundición de las líneas de productos, el cambio de las estrategias corporativas, la reasignación de los recursos humanos entre las funciones o el establecimiento de relaciones con nuevos socios.

Ya sea que se trate de inteligencia artificial o análisis de alto nivel, los líderes empresariales aún no están preparados para comprometer su negocio por completo en las decisiones tomadas por máquinas de una manera profunda. Un examen de las actividades de IA entre las organizaciones financieras y minoristas por Amit Joshi y Michael Wade de la Escuela de Negocios IMD en Suiza, considera que «la IA se utiliza principalmente con fines tácticos más que estratégicos; de hecho, es raro encontrar una visión estratégica de la IA cohesionada a largo plazo».

Más de dos de cada tres ejecutivos que responden a una encuesta de Deloitte, el 67%, dicen que «no se sienten cómodos» accediendo a los datos de sistemas de análisis avanzados o usándolos. En las empresas con una fuerte cultura basada en los datos, El 37% de los encuestados sigue expresando malestar. Del mismo modo, el 67% de los CEO en una encuesta similar realizada por KPMG indican que a menudo prefieren tomar decisiones basadas en su propia intuición y experiencia sobre los conocimientos generados a través del análisis de datos. El estudio confirma que muchos ejecutivos carecen de un alto nivel de confianza en los datos, los análisis y la IA de su organización, con incertidumbre sobre quién es responsable de los errores y el uso indebido. Los científicos de datos y los analistas también ven esta reticencia entre los ejecutivos: una encuesta reciente de SAS encuentra que el 42% de los científicos de datos dice que sus resultados no son utilizados por los responsables de tomar decisiones empresariales.

¿Cuándo estarán preparados los ejecutivos para llevar la IA al siguiente paso y confiar en ella lo suficiente como para actuar según recomendaciones más estratégicas que afecten a sus negocios? Hay muchos desafíos, pero hay cuatro medidas que se pueden tomar para aumentar la confianza de los ejecutivos a la hora de tomar decisiones asistidas por la IA:

  1. Cree modelos de IA fiables que ofrezcan información y recomendaciones coherentes
  2. Evite los sesgos de datos que sesgan las recomendaciones de la IA
  3. Asegúrese de que la IA tome decisiones éticas y morales
  4. Ser capaz de explicar las decisiones tomadas por la IA en lugar de una situación de caja negra

Cree modelos fiables

Las dudas de los ejecutivos pueden deberse a experiencias negativas, como un sistema de inteligencia artificial que arroja resultados de ventas engañosos. Casi todos los proyectos de IA fallidos tienen un denominador común: la falta de calidad de los datos. En el antiguo modelo empresarial, predominaban los datos estructurados, lo que clasificaba los datos a medida que llegaban de la fuente y facilitaba relativamente su uso inmediato.

Si bien la IA puede utilizar datos estructurados de calidad, también utiliza grandes cantidades de datos no estructurados para crear modelos de aprendizaje automático (ML) y aprendizaje profundo (DL). Que los datos no estructurados, aunque son fáciles de recopilar en su formato sin procesar, son inutilizables a menos que se clasifiquen, etiqueten y limpien correctamente (vídeos, imágenes, imágenes, audio, texto y registros) todos deben clasificarse y etiquetarse para que los sistemas de IA creen y entrenen modelos antes de que los modelos se puedan implementar en la realidad mundo. Como resultado, los datos introducidos en los sistemas de IA pueden estar desactualizados, no ser relevantes, ser redundantes, limitados o inexactos. Los datos parciales introducidos en los modelos de inteligencia artificial/aprendizaje solo proporcionarán una visión parcial de la empresa. Los modelos de IA pueden construirse para reflejar la forma en que siempre se han hecho negocios, sin la capacidad de adaptarse a las nuevas oportunidades o realidades, como hemos visto con las interrupciones en las cadenas de suministro causadas por los efectos de una pandemia mundial. Esto significa que los datos deben alimentarse en tiempo real para crear o cambiar modelos en tiempo real.

No es sorprendente que muchos científicos de datos gasten la mitad de su tiempo en la preparación de datos, que sigue siendo una tarea importante a la hora de crear modelos de IA fiables que puedan ofrecer los resultados adecuados. Para ganar la confianza de los ejecutivos, el contexto y la fiabilidad son clave. Hay muchas herramientas de IA disponibles para ayudar en la preparación de los datos, desde datos sintéticos hasta la desviación de datos y la limpieza de datos, las organizaciones deberían considerar la posibilidad de utilizar algunas de estas herramientas de IA para proporcionar los datos correctos en el momento adecuado para crear modelos de IA fiables.

Evite los sesgos de datos

Las dudas de los ejecutivos pueden basarse en la preocupación constante y justificable de que los resultados de la IA generen discriminación dentro de sus organizaciones o afecten a los clientes. Del mismo modo, el sesgo inherente a la IA puede estar guiando las decisiones corporativas en la dirección incorrecta. Si no se tiene el cuidado adecuado de limpiar los datos de cualquier sesgo, los modelos de IA resultantes siempre estarán sesgados, lo que resultará en una situación de «entrada de basura, salida de basura». Si un modelo de IA se entrena con datos sesgados, sesgará el modelo y producir recomendaciones sesgadas.

Los modelos y las decisiones pueden ser tan buenos como no sesgos en los datos. Los datos incorrectos, a sabiendas o sin saberlo, pueden contener información sobre sesgos implícitos, como prejuicios raciales, de género, de origen, políticos, sociales u otros prejuicios ideológicos. Además, otras formas de sesgo que perjudican a la empresa también pueden ser inherentes. Hay alrededor de 175 identificados sesgos humanos que necesitan atención. Esto debe abordarse mediante el análisis de los datos entrantes en busca de sesgos y otros rasgos negativos. Como se mencionó anteriormente, los equipos de IA dedican una cantidad desmesurada de tiempo a preparar los formatos y la calidad de los datos, pero poco tiempo a eliminar los datos sesgados.

Los datos utilizados en la toma de decisiones de alto nivel deben examinarse exhaustivamente para garantizar a los ejecutivos que están probados, tienen autoridad, están autenticados y proceden de fuentes fiables. Tiene que limpiarse de prácticas discriminatorias conocidas que pueden sesgar los algoritmos.

Si los datos proceden de fuentes dudosas o no examinadas, deberían eliminarse por completo o recibir puntuaciones de confianza más bajas. Además, al controlar la precisión de la clasificación, la discriminación se puede reducir en gran medida con un coste incremental mínimo. Esta optimización del preprocesamiento de datos debería concentrarse en controlar la discriminación, limitar la distorsión de los conjuntos de datos y preservar la utilidad.

A menudo se supone (erróneamente) que los modelos matemáticos de la IA pueden filtrar eventualmente los prejuicios humanos. El riesgo es que tales modelos, si se ejecutan sin control, puedan dar lugar a sesgos imprevistos adicionales, de nuevo, debido a datos de entrada limitados o sesgados.

Tomar decisiones éticas y morales

Las dudas ejecutivas pueden reflejar el hecho de que las empresas están bajo presión como nunca antes para garantizar que sus empresas funcionen moral y éticamente, y las decisiones asistidas por la IA deben reflejar también valores éticos y morales. En parte porque quieren aparecer como una empresa con valores éticos y morales y operar con integridad y en parte debido a las responsabilidades legales que pueden derivarse de la toma de decisiones equivocadas que pueden impugnarse en los tribunales, especialmente teniendo en cuenta que si la decisión fue tomada por IA o asistida por IA, irá a través de una capa extra de escrutinio.

Las instituciones educativas y de investigación están trabajando para aplicar los valores humanos a los sistemas de IA, convirtiendo estos valores en términos de ingeniería que las máquinas puedan entender. Por ejemplo, Stuart Russell, profesor de informática en la Universidad de California en Berkeley, fue pionero en una útil idea conocida como el principio de alineación de valores que esencialmente «recompensa» los sistemas de IA por un comportamiento más aceptable. Los sistemas de IA o los robots pueden entrenarse para leer historias, aprender secuencias aceptables de eventos de esas historias y reflejar mejor las formas exitosas de comportarse.

Es fundamental que obras como la que lleva a cabo Russell se importen al sector empresarial, ya que la IA tiene un enorme potencial para sesgar la toma de decisiones que afectan a vidas y carreras. Las empresas deben asegurarse de que haya suficientes controles y equilibrios para garantizar que las decisiones asistidas por IA sean éticas y morales.

Ser capaz de explicar las decisiones de la IA

Los ejecutivos podrían ser cautelosos a la hora de absorber las decisiones de IA si hay falta de transparencia. La mayoría de las decisiones de IA no tienen explicabilidad incorporada. Cuando se toma una decisión y se adopta una medida que arriesga millones de dólares para una empresa, o que implica la vida/el trabajo de las personas, decir que la IA tomó esta decisión, por lo que estamos actuando en consecuencia, no es suficiente.

Los resultados generados por la IA y las medidas adoptadas en función de ellos no pueden ser opacos. Hasta hace poco, la mayoría de los sistemas se programaban para reconocer y tratar explícitamente situaciones predeterminadas. Sin embargo, los sistemas tradicionales no cognitivos chocan contra un muro de ladrillos cuando se encuentran con escenarios para los que no estaban programados. Los sistemas de IA, por otro lado, tienen un cierto grado de capacidad de pensamiento crítico incorporada, con la intención de imitar más de cerca al cerebro humano. A medida que surgen nuevos escenarios, estos sistemas pueden aprender, comprender, analizar y actuar sobre la situación sin necesidad de programación adicional.

Los datos utilizados para entrenar algoritmos deben mantenerse de manera responsable, mediante almacenamiento, validación, auditabilidad y cifrado seguros. Los métodos emergentes como la cadena de bloques u otras tecnologías de libro mayor distribuido también proporcionan un medio para el almacenamiento inmutable y auditable. Además, es necesario establecer un marco de gobernanza de terceros para garantizar que las decisiones de IA no solo sean explicables, sino que también se basen en hechos y datos. Al final del día, debería ser posible demostrar que si un experto humano, con el mismo conjunto de datos, hubiera obtenido los mismos resultados, y la IA no manipulara los resultados.

Las decisiones basadas en datos de la IA casi siempre se basan en probabilidades (probabilísticas o deterministas). Por eso, siempre hay cierto grado de incertidumbre cuando la IA toma una decisión. Tiene que haber un grado de confianza asociado o puntuación en la fiabilidad de los resultados. Es por esta razón que la mayoría de los sistemas no pueden, no podrán ni deberían automatizarse. Los humanos deben estar en el ciclo de decisiones en un futuro próximo. Esto hace que depender de las decisiones basadas en máquinas sea más difícil cuando se trata de sectores sensibles como el sanitario, donde el 98% de probabilidad de una decisión no es suficiente.

Las cosas se vuelven complejas e impredecibles a medida que los sistemas interactúan entre sí. «Estamos empezando a aceptar que la verdadera complejidad del mundo supera con creces las leyes y los modelos que ideamos para explicarlo», según el doctor David Weinberger, afiliado al Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard. No importa lo sofisticada que sea la toma de decisiones, todavía se necesita el pensamiento crítico de los humanos para dirigir las empresas actuales. Los ejecutivos todavía tienen que poder anular o cuestionar la producción basada en la IA, especialmente dentro de un proceso opaco.

Tareas para aumentar la confianza de los ejecutivos

Tenga en cuenta las siguientes líneas de acción cuando intente aumentar los niveles de comodidad de los ejecutivos con la IA:

  • Promover la propiedad y la responsabilidad de la IA más allá del departamento de IT, de cualquiera que se dedique al proceso. Será necesario un cambio cultural para impulsar las decisiones éticas y sobrevivir en la economía de los datos.
  • Reconozca que la IA (en la mayoría de las situaciones) es simplemente código que toma decisiones en función de datos y patrones anteriores con algunas estimaciones del futuro. Todos los líderes empresariales, así como los empleados que trabajan con ellos, siguen necesitando habilidades de pensamiento crítico para desafiar la producción de la IA.
  • Dirija la IA a las áreas en las que tenga más impacto y perfecciónelas primero para añadir el mayor valor empresarial.
  • Investigue y empuje por las tecnologías más impactantes.
  • Garantizar la equidad en la IA mediante una mayor transparencia y la máxima observabilidad de la cadena de entrega de decisiones.
  • Fomentar una mayor conciencia y formación para una IA justa y procesable en todos los niveles, y vincular los incentivos para una adopción exitosa de la IA.
  • Revise o audite los resultados de la IA de forma regular y sistemática.
  • Asumir la responsabilidad y las decisiones propias y, por supuesto, corregir si alguna vez se toma una decisión incorrecta, sin culpar a la IA.

Inevitablemente, en la suite ejecutiva se verán más decisiones asistidas por IA con fines estratégicos. Por ahora, la IA ayudará a los humanos en la toma de decisiones para realizar inteligencia aumentada, en lugar de ofrecer información correcta al estilo unicornio con solo presionar un botón. Garantizar que el resultado de estas decisiones asistidas por IA se base en conocimientos fiables, imparciales, explicables, éticos, morales y transparentes ayudará a infundir la confianza de los líderes empresariales en las decisiones basadas en la IA de ahora y en los próximos años.