nov16-29-120577711
Aviso: Traducido con el uso de inteligencia artificial; puede contener errores. Participe en esta encuesta para hacernos llegar sus comentarios y obtenga información en las preguntas frecuentes.
Read in English

Los primeros días de la inteligencia artificial se han encontrado con algunos retuerzos de manos muy públicos. Tecnólogos y líderes empresariales muy respetados han expresado su preocupación por el desarrollo (responsable) de la IA. Y el apetito de Hollywood por las narrativas distópicas de IA parece no tener fondo.

Esto no es inusual ni descabellado. El cambio, tecnológico o no, siempre despierta la imaginación. Y a menudo nos hace sentir un poco incómodos.

Pero en mi opinión, nunca hemos conocido una tecnología con más potencial de beneficiar a la sociedad que la inteligencia artificial. Ahora tenemos sistemas de IA que aprenden de grandes cantidades de información compleja y no estructurada y la convierten en información práctica. No es descabellado esperar que dentro de este creciente cuerpo de datos digitales 2,5 exabytes todos los días — mienten los secretos para derrotar el cáncer, revertir el cambio climático o gestionar la complejidad de la economía mundial.

También esperamos que los sistemas de IA respalden de manera generalizada las decisiones que tomemos en nuestra vida profesional y personal en tan solo unos años. De hecho, esto ya está sucediendo en muchas industrias y gobiernos. Sin embargo, si alguna vez queremos cosechar todo el espectro de beneficios sociales e industriales de la inteligencia artificial, primero tendremos que confiar en ella.

La confianza en los sistemas de IA se ganará con el tiempo, como en cualquier relación personal. En pocas palabras, confiamos en las cosas que se comportan como esperamos que lo hagan. Pero eso no significa que el tiempo por sí solo resuelva el problema de la confianza en la IA. Los sistemas de IA deben crearse desde el principio para funcionar en asociaciones basadas en la confianza con las personas.

El trabajo más urgente es reconocer y minimizar los prejuicios. El sesgo podría introducirse en un sistema de IA a través de los datos de entrenamiento o los algoritmos. Los datos seleccionados que se utilizan para entrenar el sistema podrían tener sesgos inherentes, por ejemplo, hacia un grupo demográfico específico, ya sea porque los datos en sí son sesgados o porque los conservadores humanos mostraron un sesgo en sus elecciones. Los algoritmos que procesan esa información también podrían tener sesgos en el código, introducidos por un desarrollador, de forma intencionada o no. La comunidad de desarrolladores está empezando a lidiar con este tema en serio. Pero la mayoría de los expertos creen que al probar exhaustivamente estos sistemas, podemos detectar y mitigar los sesgos antes de que se implemente el sistema.

La gestión del sesgo es un elemento de la cuestión más amplia de la responsabilidad algorítmica. Es decir, los sistemas de IA deben poder explicar cómo y por qué llegaron a una conclusión concreta para que un humano pueda evaluar la lógica del sistema. Muchas profesiones, como la medicina, las finanzas y el derecho, ya requieren la capacidad de auditoría basada en pruebas como práctica normal para garantizar la transparencia en la toma de decisiones y la gestión de la responsabilidad. En muchos casos, los sistemas de IA pueden necesitar explicar la razón de ser mediante una interacción conversacional (en lugar de un informe), de modo que una persona pueda profundizar en todos los detalles que sea necesario.

Además, los sistemas de IA pueden y deben tener mecanismos para insertar una variedad de valores éticos apropiados al contexto, como la tarea, el individuo, la profesión o la cultura. Esto no es tan difícil como parece. Los sistemas éticos se basan en reglas, al igual que los algoritmos informáticos. Estas reglas se pueden insertar durante el desarrollo, la implementación o el uso. Y como se trata de sistemas de aprendizaje, los investigadores creen que los sistemas de IA pueden, con el tiempo, observar el comportamiento humano para llenar algunos vacíos.

Incumbe a los desarrolladores de sistemas de IA responder a estas preguntas de forma que satisfagan tanto al sector como al público en general. Esto ya se entiende bien en el sector de la tecnología, por lo que IBM está trabajando junto con algunos de sus competidores más feroces, como Google, Microsoft, Amazon y Facebook, en la «Asociación en materia de IA», una colaboración única y abierta diseñada para guiar el desarrollo ético de la inteligencia artificial.

Los líderes empresariales que consideren soluciones de inteligencia artificial deben incluir la confianza y la responsabilidad como parte de sus criterios de adopción. Deberían pensar cómo y dónde se introduce esta tecnología en toda la organización. Y deberían trabajar con sus proveedores de tecnología para identificar cualquier comportamiento no deseado y corregirlo si es necesario.

Pero retrasar la implementación de la inteligencia artificial no es una opción. Pagamos un precio significativo todos los días por no saber lo que se sabe: no saber qué le pasa al paciente, no saber dónde encontrar un recurso natural crítico o no conocer los riesgos ocultos en la economía global. Creemos que muchas de estas ambigüedades e ineficiencias se pueden eliminar con inteligencia artificial.

La inteligencia artificial es una tecnología innegablemente poderosa. Y como con cualquier tecnología potente, se debe tener mucho cuidado en su desarrollo y despliegue. Así como es nuestra obligación aplicar esta tecnología a problemas sociales complejos, es nuestra obligación desarrollarla de manera que genere confianza y proteja a la humanidad. En otras palabras, generar confianza es esencial para la adopción de la inteligencia artificial. Y creemos que su adopción es esencial para la humanidad.