Aviso: Traducido con el uso de inteligencia artificial; puede contener errores. Participe en esta encuesta para hacernos llegar sus comentarios y obtenga información en las preguntas frecuentes.
Read in English

En los últimos años, las preocupaciones en torno a la ética de la IA se han generalizado. Las preocupaciones y los resultados que todo el mundo quiere evitar están en gran medida acordados y bien documentados. Nadie quiere impulsar una IA discriminatoria o sesgada. Nadie quiere ser objeto de una demanda o investigación reglamentaria por violaciones de la privacidad. Pero una vez que todos estemos de acuerdo en que la IA sesgada y de caja negra que viola la privacidad es mala, ¿a dónde vamos ahora? La pregunta que más se hacen todos los líderes sénior es: ¿cómo tomamos medidas para mitigar esos riesgos éticos?

Es admirable actuar con rapidez para abordar las preocupaciones, pero con las complejidades del aprendizaje automático, la ética y sus puntos de intersección, no hay soluciones rápidas. Para implementar, escalar y mantener estrategias éticas de mitigación de riesgos de IA eficaces, las empresas deben empezar por comprender en profundidad los problemas que intentan resolver. Sin embargo, un desafío es que las conversaciones sobre la ética de la IA pueden resultar nebulosas. El primer paso, entonces, debe consistir en aprender a hablar de ello de formas concretas y prácticas. A continuación, le indicamos cómo puede poner la mesa para tener conversaciones sobre la ética de la IA de una manera que pueda aclarar los próximos pasos.

¿Quién tiene que participar?

Recomendamos crear un grupo de trabajo de alto nivel que se encargue de impulsar la ética de la IA en su organización. Deben tener las habilidades, la experiencia y los conocimientos adecuados para que las conversaciones estén bien informadas sobre las necesidades empresariales, las capacidades técnicas y los conocimientos operativos. Como mínimo, recomendamos la participación de cuatro tipos de personas: tecnólogos, expertos en legal/cumplimiento, especialistas en ética y líderes empresariales que entiendan los problemas que intenta resolver con la IA. Su objetivo colectivo es comprender las fuentes de los riesgos éticos en general, para la industria de la que son miembros y para su empresa en particular. Al fin y al cabo, no hay buenas soluciones sin una comprensión profunda del problema en sí y de los posibles obstáculos para las soluciones propuestas.

Necesita que el tecnólogo evalúe lo que es tecnológicamente viable, no solo a nivel de producto, sino también a nivel organizativo. Esto se debe a que, en parte, varios planes éticos de mitigación del riesgo requieren diferentes herramientas y habilidades tecnológicas. Saber dónde está su organización desde una perspectiva tecnológica puede ser esencial para trazar un mapa de cómo identificar y cerrar las brechas más grandes.

Los expertos legales y de cumplimiento están ahí para ayudar a garantizar que cualquier nuevo plan de reducción de riesgos sea compatible y no redundante con las prácticas de reducción de riesgos existentes. Los problemas legales cobran especial importancia dado que no está claro cómo afectan las leyes y reglamentos existentes a las nuevas tecnologías, ni qué nuevos reglamentos o leyes se están preparando.

Los especialistas en ética están ahí para ayudar a garantizar una investigación sistemática y exhaustiva de los riesgos éticos y de reputación a los que debe enfrentarse, no solo en virtud del desarrollo y la adquisición de IA, sino también de los riesgos que son específicos de su sector o su organización. Su importancia es especialmente relevante porque el cumplimiento de normativas obsoletas no garantiza la seguridad ética y de reputación de su organización.

Por último, los líderes empresariales deberían ayudar a garantizar que se mitiguen todos los riesgos de una manera que sea compatible con las necesidades y los objetivos de la empresa. El riesgo cero es imposible siempre y cuando alguien haga algo. Pero el riesgo innecesario es una amenaza para el resultado final y las estrategias de reducción del riesgo también deben elegirse teniendo en cuenta lo que es económicamente viable.

Tres conversaciones para impulsar las cosas

Una vez que el equipo esté en su lugar, aquí hay tres conversaciones cruciales que debe tener. Una conversación se refiere a llegar a un entendimiento compartido de los objetivos que debe perseguir un programa de riesgos éticos de IA. La segunda conversación se refiere a identificar las brechas entre el lugar en el que está la organización ahora y el lugar en el que quiere estar. La tercera conversación tiene como objetivo comprender las fuentes de esas lagunas para que se aborden de manera exhaustiva y eficaz.

1) Defina el estándar ético de su organización para la IA.

En cualquier conversación se debe reconocer que el cumplimiento legal (por ejemplo, la ley antidiscriminación) y el cumplimiento de la normativa (por ejemplo, el RGPD o la CCPA) están en juego. La pregunta a abordar es: dado que el conjunto de riesgos éticos no es idéntico al conjunto de riesgos legales/reglamentarios, ¿cuáles identificamos como riesgos éticos para nuestro sector/organización y cuál es nuestra posición con respecto a ellos?

Hay un montón de preguntas difíciles que necesitan respuestas aquí. Por ejemplo, ¿qué, según la luz de su organización, cuenta como un modelo discriminatorio? Supongamos, por ejemplo, que su software de contratación de IA discrimina a las mujeres, pero discrimina menos de lo que históricamente han sido discriminados. ¿Es su punto de referencia para ser lo suficientemente imparcial «mejor de lo que lo han hecho los humanos en los últimos 10 años»? ¿O hay algún otro punto de referencia que considere apropiado? Los del sector de los coches autónomos conocen bien esta pregunta: «¿Desplegamos coches autónomos a escala cuando son mejores que el conductor humano medio o cuando son al menos tan buenos (o mejores que) nuestros mejores conductores humanos?»

Surgen preguntas similares en el contexto de los modelos de caja negra. ¿Cuál es la posición de su organización en cuanto a la explicabilidad? ¿Hay casos en los que le parezca aceptable utilizar una caja negra (por ejemplo, siempre que se compare bien con el punto de referencia elegido)? ¿Cuáles son los criterios para determinar si una IA con resultados explicables es otiosa, es bueno tener o es imprescindible?

Profundizar en estas preguntas le permite desarrollar marcos y herramientas para sus equipos de producto y para los ejecutivos que dan luz verde al despliegue del producto. Por ejemplo, puede decidir que todos los productos deben pasar por un proceso de diligencia ética del riesgo antes de su despliegue o incluso en las fases más tempranas del diseño del producto. También puede fijar las directrices con respecto a cuándo, si es que lo hacen, los modelos de caja negra se pueden utilizar. Llegar a un punto en el que pueda articular cuáles son los estándares éticos mínimos que toda IA debe cumplir es una buena señal de que se ha progresado. También son importantes para ganarse la confianza de los clientes y demuestran que se ha llevado a cabo la diligencia debida en caso de que los reguladores investiguen si su organización ha implementado un modelo discriminatorio.

2) Identifique las brechas entre el lugar en el que se encuentra ahora y lo que exigen sus estándares.

Hay varias «soluciones» o «correcciones» técnicas a los problemas de ética de la IA. Una serie de productos de software, desde grandes tecnologías hasta nuevas empresas y organizaciones sin ánimo de lucro, ayudan a los científicos de datos a aplicar métricas cuantitativas de equidad a los resultados de sus modelos. Herramientas como LIME y SHAP ayudan a los científicos de datos a explicar cómo se llega a los resultados en primer lugar. Pero prácticamente nadie piensa que estas soluciones técnicas, o cualquier solución tecnológica, mitiguen lo suficiente el riesgo ético y transformen a su organización en una que cumpla con sus estándares éticos de IA.

El equipo de ética de la IA debería determinar cuáles son sus respectivos límites y cómo pueden complementarse entre sí sus habilidades y conocimientos. Esto significa preguntar:

  1. ¿Cuál es, exactamente, el riesgo que intentamos mitigar?
  2. ¿Cómo nos ayuda el análisis cuantitativo/de software a mitigar ese riesgo?
  3. ¿Qué lagunas dejan los análisis cuantitativos/de software?
  4. ¿Qué tipos de evaluaciones cualitativas tenemos que hacer, cuándo tenemos que hacerlas, sobre qué base las hacemos y quién debe realizarlas para que esas lagunas se llenen adecuadamente?

Estas conversaciones también deberían incluir una pieza crucial que normalmente se omite: qué nivel de madurez tecnológica se necesita para satisfacer (algunas) demandas éticas (por ejemplo, si tiene la capacidad tecnológica para dar explicaciones que se necesitan en el contexto de las redes neuronales profundas). Tener conversaciones productivas sobre los objetivos éticos de gestión de riesgos de la IA que se pueden alcanzar requiere vigilar lo que es tecnológicamente viable para su organización.

Las respuestas a estas preguntas pueden proporcionar una orientación clara sobre los próximos pasos: evaluar qué soluciones cuantitativas pueden encajar con las prácticas existentes de los equipos de producto, evaluar la capacidad de la organización para las evaluaciones cualitativas y evaluar cómo, en su organización, pueden combinarse estas cosas de manera eficaz y sin problemas.

3) Comprenda las fuentes complejas de los problemas y ponga en práctica las soluciones.

Muchas conversaciones sobre los prejuicios en la IA comienzan con dar ejemplos e inmediatamente hablando de «conjuntos de datos sesgados». A veces esto se deslizará para hablar de «sesgo implícito» o «sesgo inconsciente», que son términos tomados prestados de la psicología que carecen de una aplicación clara y directa a los «conjuntos de datos sesgados». Pero no basta con decir que «los modelos se basan en conjuntos de datos sesgados» o «la IA refleja nuestras políticas y acciones históricas discriminatorias en la sociedad».

El problema no es que estas cosas no sean (a veces, a menudo) ciertas; es que no puede ser todo el panorama. Comprender los sesgos en la IA requiere, por ejemplo, hablar de las diversas fuentes de resultados discriminatorios. Ese puede ser el resultado de los datos de entrenamiento; pero cómo, exactamente, es importante que esos conjuntos de datos puedan estar sesgados, si no es por otra razón que la forma en que están sesgados informa cómo se determina la estrategia óptima de mitigación de sesgos. Abundan otros problemas: cómo se ponderan las entradas, dónde se fijan los umbrales y qué función objetivo se elige. En resumen, la conversación en torno a los algoritmos discriminatorios tiene que profundizar en la fuente s del problema y de cómo esas fuentes se conectan a diversas estrategias de mitigación de riesgos.

. . .

Las conversaciones productivas sobre ética deberían ir más allá de los ejemplos generales de trazos descritos por especialistas y no especialistas por igual. Su organización necesita a las personas adecuadas en la mesa para poder definir y profundizar sus estándares. Su organización debería unir de manera fructífera sus enfoques cuantitativos y cualitativos de la mitigación ética del riesgo para poder cerrar las brechas entre lo que está ahora y lo que quiere que esté. Y debería apreciar la complejidad de las fuentes de los riesgos éticos de la IA. Al final del día, el riesgo ético de la IA no es nebuloso ni teórico. Es concreto. Y merece y requiere un nivel de atención que vaya mucho más allá de la repetición de titulares aterradores.