Xai: explicando la inteligencia artificial

La inteligencia artificial (IA) se está convirtiendo rápidamente en una parte fundamental de nuestras vidas, tomando decisiones, haciendo recomendaciones y predicciones en diversas industrias y economías. Sin embargo, a medida que estas tecnologías avanzan, es crucial entender cómo llegan a sus resultados específicos. Ya no es suficiente que un algoritmo de IA genere el resultado correcto, ahora es fundamental conocer la razón por la cual se llega a ese resultado. Es aquí donde entra en juego la inteligencia artificial explicada (XAI, por sus siglas en inglés).

Índice
  1. ¿Qué es la inteligencia artificial explicada (XAI)?
  2. ¿Qué hace que una explicación sea buena?
  3. ¿Cuál es la diferencia entre la explicabilidad y la interpretabilidad en la IA?
  4. ¿Qué se logra con el aprendizaje automático interpretable?
  5. ¿Por qué las plataformas de gobernanza de datos deben adherirse a la XAI?

¿Qué es la inteligencia artificial explicada (XAI)?

La XAI se refiere a técnicas, procesos y sistemas que permiten a los humanos confiar y tener confianza en los algoritmos de aprendizaje automático. Las empresas pueden obtener un marco impulsado por IA que brinda evidencia clara para respaldar los resultados y la toma de decisiones.

Al aplicar la IA de esta manera, las empresas pueden mitigar el elemento de la caja negra, ayudando a construir confianza entre los consumidores. Los propietarios de los datos pueden comprender y explicar las decisiones tomadas por los algoritmos, tranquilizando a las audiencias de que no hay sesgos que afecten incorrectamente los resultados.

¿Qué hace que una explicación sea buena?

Imaginemos que una institución financiera rechaza un préstamo a un cliente. Puede haber miles de puntos de datos incluidos en los criterios de decisión. En este caso, sería necesario utilizar un método de explicación contrastiva para mostrar por qué se ha rechazado al cliente, resaltando la diferencia entre un evento exitoso (preferible o positivo) y uno no exitoso (indeseado o negativo).

El contraste ayuda en el proceso cognitivo de entender y explicar los resultados. Esto permite que el consumidor se enfoque en lo que se necesita para reducir ese contraste y lograr que su solicitud sea aceptada. No se desea una lista de las señales positivas y negativas involucradas, ya que esto sería demasiado abstracto y complejo.

Un motor de IA proporciona la capacidad necesaria para construir, mantener y aplicar dinámicamente políticas para tomar estas decisiones. El elemento humano complementa esto, proporcionando explicaciones adecuadas para la audiencia y expresivas en contexto.

Lograr este equilibrio ayuda a garantizar la fidelidad y la explicabilidad en tres áreas clave:

  • Proporcionar retroalimentación explicativa para que los administradores de datos comprendan por qué se ha completado un proceso.
  • Recibir retroalimentación accionable de los administradores de datos basada en sus políticas de protección de datos establecidas.
  • Apoyar a los administradores de datos con gobernanza de políticas, sugerencias y aplicación.

La explicación actúa como un puente entre la toma de decisiones de la IA y la interpretación de la decisión por parte del ser humano, lo cual nos lleva a otro elemento esencial del proceso: la interpretabilidad.

¿Cuál es la diferencia entre la explicabilidad y la interpretabilidad en la IA?

En 2015, los científicos aplicaron el aprendizaje profundo a 700,000 registros de pacientes. Esta aplicación, conocida como deep patient, fue capaz de identificar el inicio de problemas psiquiátricos como la esquizofrenia. Sin embargo, el proceso para llegar a esa decisión no era transparente, explicativo ni interpretable. Como dijo el investigador principal después, podemos construir estos modelos, pero no sabemos cómo funcionan.

Este estudio ilustra por qué no es suficiente que las decisiones de aprendizaje automático sean precisas al llegar; también se trata de que los humanos puedan comprender lo que sucede en el camino de toma de decisiones. Este aspecto de el viaje es tan importante como el destino requiere de la interpretabilidad en la IA.

Consideremos un árbol de decisiones básico. El modelo comienza en el nodo raíz, luego se mueve o se divide hacia el siguiente nodo en un camino claro basado en su camino anterior. Finalmente, llega a un resultado o nodo hoja. Cuando los humanos pueden entender fácilmente las decisiones tomadas en ese camino, tenemos un modelo interpretable.

Por supuesto, pocas decisiones son tan lineales. Cuantos más nodos haya, más difícil será entender el modelo, aunque no tenemos que revisar cada parámetro o variable. Se trata más de mostrar lo que se necesita en el momento adecuado a las personas adecuadas, asegurándose de que se haga de manera transparente, explicativa e interpretable.

¿Qué se logra con el aprendizaje automático interpretable?

Cuando aplicamos la interpretabilidad para resolver el desafío de la caja negra, permitimos los siguientes elementos:

  • Equidad en las decisiones: las predicciones se realizan en conjuntos de datos cuidadosamente seleccionados, minimizando los sesgos implícitos durante el entrenamiento.
  • Fortaleza y mejora continua: los modelos son robustos y dinámicos, y con el tiempo se vuelven menos susceptibles a cambios o valores atípicos grandes o inesperados.
  • Protección de los consumidores: comprender mejor el modelo significa que solo se utilizan los datos necesarios, lo que ayuda a salvaguardar la privacidad y anonimizar los datos personales y otros datos sensibles.
  • Causalidad: los modelos pueden considerar relaciones causales, evitando correlaciones falsas que pueden surgir al considerar solo asociaciones.
  • Confianza y progreso: los analistas y científicos pueden invertir más recursos en sus flujos de trabajo de aprendizaje automático, sabiendo que pueden verificar las conclusiones con confianza.

Explicar una decisión es un proceso bidireccional. Si doy una razón, quiero que me digas lo que piensas. ¿Tengo razón? ¿Estoy equivocado? ¿Qué debo hacer diferente?

Lo mismo ocurre con la IA. Necesitamos poder desglosar y comprender las decisiones, dar nuestras opiniones y mejorar continuamente las decisiones futuras, especialmente cuando podemos utilizar la IA para mejorar constantemente la gestión de políticas de datos, la gobernanza y la protección.

¿Por qué las plataformas de gobernanza de datos deben adherirse a la XAI?

La XAI debe integrarse en los marcos de gobernanza desde las primeras etapas. Tener en cuenta los sesgos dentro de los datos de observación no es algo que se pueda añadir posteriormente, especialmente cuando las organizaciones buscan ser impulsadas por la privacidad y los datos.

Asegurar la visibilidad también significa que el ser humano puede interpretar y responder a comportamientos problemáticos potenciales del modelo. Esto conduce a una mejor gestión de políticas de datos con una mejor protección y presentación de los datos adecuados en el momento adecuado. La XAI también ha demostrado su valía en múltiples industrias y casos de uso, como la toma de decisiones automatizada, el diagnóstico médico, los vehículos autónomos y el análisis de texto.

También es importante destacar que las explicaciones se proporcionan a menudo a personas no técnicas, desde legisladores y CEO hasta sujetos de datos y el público en general. Aquí es donde la XAI tiene la capacidad de desbloquear explicaciones del entorno real. Con los humanos aplicando inteligencia del entorno real, esto nos lleva más allá de la inteligencia artificial y todo lo que ha ocurrido hasta ahora.

Forbes Technology Council es una comunidad exclusiva por invitación para CIO, CTO y ejecutivos de tecnología de clase mundial. ¿Cumplo con los requisitos?

Si quieres conocer otras notas parecidas a Xai: explicando la inteligencia artificial puedes visitar la categoría Inteligencia.

Subir

Utilizamos cookies propias y de terceros para elaborar información estadística y mostrarte contenidos y servicios personalizados a través del análisis de la navegación. Acéptalas o configura sus preferencias. Más Información