Aviso: Traducido con el uso de inteligencia artificial; puede contener errores. Participe en esta encuesta para hacernos llegar sus comentarios y obtenga información en las preguntas frecuentes.
Read in English

Muchas organizaciones se han dado cuenta del imperativo empresarial de un programa de riesgo ético de IA. Innumerables noticias, desde el reconocimiento facial defectuoso y discriminatorio hasta las violaciones de la privacidad y los algoritmos de la caja negra con consecuencias que alteran la vida, lo han incluido en las agendas de los consejos de administración, los directores ejecutivos y los directores generales de datos y análisis. Sin embargo, lo que la mayoría de los líderes no entienden es que abordar estos riesgos requiere concienciarlos en toda la organización. Los que entienden esto a menudo no saben cómo proceder.

Para las empresas que utilizan la IA, esta tiene que ser una prioridad máxima. Más del 50% de los ejecutivos informan de una preocupación «importante» o «extrema» por los riesgos éticos y de reputación de la IA en su organización dado su nivel actual de preparación para identificar y mitigar esos riesgos. Eso significa que crear un programa de riesgos éticos de IA en el que todo el mundo está interesado es necesario para desplegar la IA en absoluto. Si se hace bien, la sensibilización puede mitigar los riesgos a nivel táctico y prestarse a la aplicación con éxito de un programa de riesgos éticos de IA más general.

La creación de esta conciencia normalmente se divide en tres problemas importantes.

En primer lugar, los oficiales de aprovisionamiento son una de las mayores (y más ignoradas) fuentes de riesgos éticos de la IA. Los proveedores de IA venden en casi todos los departamentos de la organización, pero especialmente en RR. HH., marketing y finanzas. Si sus oficiales de aprovisionamiento de RRHH no saben cómo hacer las preguntas adecuadas para examinar los productos de IA, pueden, por ejemplo, importar el riesgo de discriminar a las subpoblaciones protegidas durante el proceso de contratación.

En segundo lugar, los altos directivos a menudo no tienen los conocimientos necesarios para detectar defectos éticos en la IA de su organización, lo que pone en riesgo a la empresa, tanto a nivel legal como reputacional. Por ejemplo, si un equipo de producto está preparado para implementar una IA pero primero necesita la aprobación de un ejecutivo que sepa poco sobre los riesgos éticos del producto, la reputación de la marca (sin mencionar al ejecutivo) puede correr un alto riesgo.

En tercer lugar, un programa de riesgos éticos de IA requiere científicos e ingenieros de datos conocedores. Si no comprenden los riesgos éticos de la IA, es posible que no comprendan sus nuevas responsabilidades tal como se articulan en el programa o que las entiendan pero no comprendan su importancia, lo que a su vez lleva a no tomarlas en serio. Por otro lado, si tiene una organización que comprenda los riesgos éticos, legales y de reputación de la IA, comprenderán la importancia de implementar un programa que aborde sistemáticamente esos problemas entre organizaciones.

Crear este pozo de conciencia interorganizacional requiere trabajo. Requiere un mensaje coherente que también se adapte a las preocupaciones específicas de cada grupo. Al fin y al cabo, los intereses y responsabilidades de los directivos son diferentes de los propietarios y diseñadores de productos, que son diferentes de los de los científicos e ingenieros de datos: hablar en el mismo idioma a todos ellos no significa que ninguno de ellos hable con ellos. El mensaje no puede ser superficial o hará que la gente piense que la ética de la IA es una cuestión de RR.PP. o una preocupación de nicho. Y necesita un líder claro de la alta dirección responsable de idear y supervisar la ejecución de una estrategia que dé como resultado el conocimiento de toda la organización; este problema no se tomará en serio si el mensaje no viene desde arriba. Aquí es donde las organizaciones deben empezar.

Cómo crear conciencia y conseguir la aceptación

Es fundamental asegurarse de que todos los empleados conozcan los riesgos y se sientan vested el éxito de la IA en la organización. No solo tienen que ser conscientes de que existen estos problemas, sino que también necesitan saber cómo afectan esos riesgos a su trabajo concreto y cómo encaja en la descripción de su trabajo. Una cosa es que un empleado de RR. HH. sepa que necesita contratar a las personas adecuadas para el trabajo y lo que podría ser, al mismo tiempo que, por cierto, es consciente de los riesgos éticos de la IA. Otra cosa es que esa persona vea la identificación y mitigación de esos riesgos como parte de su trabajo, por ejemplo, sabiendo que el desempeño responsable de sus responsabilidades incluye pedir a los proveedores de inteligencia artificial que proporcionan software de contratación que le proporcionen documentación sobre cómo identificaron y mitigaron los sesgos en sus AI.

Aquí hay seis medidas que puede tomar para aumentar el conocimiento de la organización y la aceptación de la manera correcta.

1. Elimine el miedo a la IA y a la ética de la IA. Un obstáculo al que se enfrentan las organizaciones IT que las personas ajenas a TI pueden sentirse intimidadas por el tema. «Inteligencia artificial», «aprendizaje automático» y «algoritmos discriminatorios» pueden parecer conceptos abrumadores, lo que lleva a la gente a alejarse del tema por completo. Es fundamental para crear conciencia organizativa que la gente se familiarice y se sienta cómoda con los conceptos, si no con los fundamentos técnicos.

Poseer los conocimientos básicos de IA no es, en cierto sentido, muy difícil. Al fin y al cabo, el aprendizaje automático es, en esencia, aprender con el ejemplo, con el que todo el mundo está familiarizado. Del mismo modo, ser malo en algo porque no tenía suficientes ejemplos también es familiar para todos. Si le está comunicando a la gente cómo se puede crear un algoritmo discriminatorio, puede explicarle que algunos son el resultado de un software que no tenía suficientes ejemplos que aprender y, por lo tanto, el software comete errores (por ejemplo, no tener suficientes ejemplos de rostros de mujeres negras para su software de reconocimiento facial lo que hace que el software sea muy malo para distinguir las caras de las mujeres negras). De manera más general, muchos de los riesgos éticos de la IA y sus diversas fuentes se pueden articular a un público no técnico y dan como resultado que los empleados tengan la confianza que necesitan para gestionar los problemas.

Exigir a los empleados de RRHH y marketing que estén familiarizados con el funcionamiento de la IA y la forma en que surgen los riesgos éticos de la IA puede parecer una tarea difícil. Sin embargo, la mayoría de las organizaciones han creado una gran conciencia sobre los riesgos de ciberseguridad, que también implica conocimientos de ciberseguridad, y esto probablemente parecía una imposibilidad virtual antes de que las empresas se comprometieran a hacerlo realidad. Pero, si su gente no conoce los conceptos básicos, no sabrán hacer las preguntas correctas (por ejemplo, de los proveedores de IA) cuando sea crucial que lo hagan.

2. Adapte sus comunicaciones a su público. Los líderes sénior que se ven a sí mismos como administradores de la reputación de su marca están interesados en evitar los riesgos que amenazan esa reputación. Para ellos, hablar en el idioma de «ético y reputacional riesgo» es importante para que vean la relevancia de la ética de la IA para sus preocupaciones y responsabilidades. Los diseñadores de productos, por otro lado, se preocupan menos por evitar el riesgo que por crear productos «interesantes» y útiles. Explicar cómo la ética de la IA mediante el diseño mejora su producto, especialmente para el creciente número de consumidores impulsados por los valores y ciudadanos en general, puede ser una forma muy eficaz de llegar a ese público. Por último, los científicos e ingenieros de datos quieren modelos robustos que sean eficaces. Hablar su idioma significa explicar cómo los problemas de los algoritmos sesgados y las cajas negras reducen la potencia de la herramienta o su adopción. Nadie quiere crear un modelo inexacto o sin usar.

También es importante dar ejemplos e historias de IA que salió mal con las que cada público se pueda identificar. Esto no solo tiene que implicar desastres de RR.PP.. También puede incluir, por ejemplo, la incapacidad de Amazon para mitigar suficientemente los sesgos en su software de contratación impulsado por IA, que llevó admirablemente a Amazon a desconectar el proyecto en lugar de desplegar algo que pueda perjudicar a los solicitantes de empleo y a la marca por igual. Además, en la medida de lo posible, debería utilizar ejemplos que sean específicos de su sector. Hay casos en los que la IA se ha dado cuenta de ciertos riesgos éticos en la sanidad, pero si habla con miembros de una fintech, los empleados conectarán más con una historia de una empresa similar.

3. Vincule sus intentos de crear conciencia organizativa con la misión o el propósito de su empresa. Si ya está integrado en la cultura de su organización, cuál es su misión/propósito, integre su debate sobre la ética de la IA con eso. Explique cómo la gestión ética y ética del riesgo de la IA es una extensión más de esa misión, un conjunto de barreras en torno a lo que (no) está dispuesto a hacer para cumplir esa misión.

Por ejemplo, su misión podría ser proporcionar el mejor asesoramiento financiero posible. Pero no puede dar ese consejo a menos que la gente confíe en usted y la gente no pueda confiar en usted si es negligente en la implementación de la IA. Cuando la IA sale mal, va mal a gran escala, por lo que comunicar a su organización que parte de proporcionar el mejor asesoramiento financiero posible implica proteger a sus clientes, y esa parte de protegerlos requiere el despliegue ético, responsable o confiable de la IA, la ética de la IA ya no se considera algo atornillado a sus operaciones. En cambio, comunique que se trata de una extensión más de su misión y valores fundamentales.

4. Defina lo que significa la ética de la IA en su organización de una manera operativa. Una cosa es decir que está «a favor de la privacidad» o que «respeta la privacidad». Otra cosa es hacer algo al respecto. Para asegurarse de que sus compromisos de valor ético de la IA no se vean como meras RR.PP., vincule esos compromisos a barreras éticas, por ejemplo, «nunca venderemos sus datos a terceros» o «siempre haremos anónimos los datos compartidos con terceros».

Si tiene una declaración ética de IA bien elaborada, incluirá las barandillas, que desempeñan una doble función. Primero, le comunican a su equipo lo que usted está haciendo (o planea hacer) realmente con respecto a los riesgos éticos de la IA. Y segundo, comunica inmediatamente que no se trata de RR.PP. o algo borroso. Cuando los valores se articulan y comunican de manera que los vincule a las acciones, esas comunicaciones son creíbles y memorables.

Una forma de facilitar a su público que comprenda cómo la ética de la IA no es confusa y es algo que se puede implementar es explicar las cuestiones éticas muy reales y difíciles a las que se enfrenta la sanidad y las formas en que han abordado esos problemas. En relación con ello, puede discutir cómo el sector sanitario ha incorporado la mitigación ética del riesgo en la infraestructura y el proceso para que puedan ver que se puede hacer.

5. Invite a miembros de confianza e influyentes en diversas funciones para que se unan a sus esfuerzos. Algunas organizaciones, como Microsoft, han creado un sistema de «campeones de la ética de la IA». Se trata de personas de la organización que se encargan de concienciar a sus equipos sobre los riesgos éticos de la IA. Una característica importante de un programa de campeones de la ética de la IA es que empodera a los líderes que ya cuentan con la confianza y el apoyo de su equipo. Además, conocen sus respectivos equipos mejor que, por ejemplo, el director de aprendizaje o el director de datos, o quien dirija la estrategia de concienciación de la organización.

6. Educar continuamente. Crear conciencia organizativa no es algo que se haga en un retiro de miércoles por la tarde o de fin de semana. Requiere puntos de contacto diversos y continuos, desde oradores internos y externos, talleres, boletines,. De hecho, la IA y las tecnologías emergentes en general están cambiando y evolucionando rápidamente, y con esos cambios surgen nuevas fuentes de riesgo ético. Para garantizar que su organización no se quede demasiado atrás, educar continuamente a su gente será un baluarte crucial contra la creciente marea de avances tecnológicos.

Los líderes empresariales saben que descubrir cómo desarrollar, adquirir e implementar la IA de una manera segura y ética es crucial para el crecimiento continuo y mantener una ventaja competitiva. Es importante que este objetivo no se confunda con un objetivo técnico que los científicos e ingenieros de datos deben alcanzar. El despliegue responsable de la IA, ya sea que se utilice con fines internos o externos, requiere conocer los riesgos éticos de la IA y la aceptación de la organización de una estrategia que los mitigue.