Límites y ética de la inteligencia artificial

En los últimos años, los avances en Inteligencia Artificial (IA) han generado preocupación e incluso alarma entre reconocidos expertos, empresarios y la sociedad en general. Esto ha llevado a llamados en la prensa popular para establecer regulaciones que supervisen el uso de la tecnología de IA con el fin de salvaguardar nuestra cordura y seguridad.

Sin embargo, ¿es realmente necesario tener organismos reguladores de IA? El punto clave a tener en cuenta es que un organismo regulador no solo debe ser una función de monitoreo e informe; también debe tener la autoridad y los medios para regular el mercado, asegurando el cumplimiento de los estándares y garantizando que las empresas que desarrollan IA lo hagan de manera legítima. Esto suena fácil de decir, pero es difícil de ejecutar debido a la naturaleza extremadamente versátil de la IA y sus aplicaciones. La IA presenta muchas incógnitas que dificultan incluso comenzar a pensar en establecer un estándar en primer lugar.

Índice
  1. Verificación y validación de la IA
  2. Marco ético y procedimientos adecuados

Verificación y validación de la IA

La verificación y validación de la IA no son tareas sencillas. Podemos encontrarnos con problemas relacionados con la fragilidad de los sistemas de IA, dependencia de los datos y configuraciones que cambian constantemente para mejorar el rendimiento de la IA (una ventaja clave del aprendizaje automático es que aprende y mejora constantemente su estado actual). Además, existen problemas conocidos relacionados con la privacidad, la seguridad, entre otros aspectos.

Es importante destacar que los sistemas de IA plantean desafíos éticos complejos para las empresas. La ética siempre ha sido un tema delicado para las empresas, que deben asegurarse de que su comportamiento se alinee y cumpla con sus valores y normas sociales más amplias. Tradicionalmente, han gestionado los dilemas éticos a través de una supervisión humana cuidadosa y procesos sutiles y subjetivos. Sin embargo, la llegada y proliferación de los sistemas de IA han cambiado eso. La toma de decisiones automatizada y algorítmica ha creado nuevos desafíos para las empresas, ya que reduce el tiempo de toma de decisiones a meros milisegundos, basándose en patrones de datos pasados y con poca o ninguna información contextual.

El aprendizaje automático moderno aprende de datos históricos sin contexto o sentido común. Como resultado, muchos productos de IA en el mercado no pueden adaptarse al contexto o a entornos cambiantes. Los profesionales deben incorporar rigurosas verificaciones de procedencia de datos durante el diseño y desarrollo para garantizar que se considere información contextualmente sensible al entrenar modelos de aprendizaje automático. La información contextual es clave si queremos abordar uno de los problemas fundamentales de la ética de la IA, que es la equidad.

No debemos esperar que nuestros sistemas de IA sean completamente imparciales y justos para todos. Esto llevará tiempo. - Yannis Kalfoglou, PhD

Acertar con el contexto es fundamental, pero también debemos tener en cuenta las diferentes interpretaciones de la equidad, ya que es técnicamente imposible satisfacerlas todas. Los matices locales, regionales y específicos de cada país siempre serán un desafío para una noción mecanicista de equidad, incrustada en un sistema de IA mediante el entrenamiento con datos históricos pasados. Una forma de abordar esto es involucrar a las partes interesadas desde el principio y decidir una métrica de equidad. Es común tener diferentes puntos de vista sobre lo que significa ser justo, por lo que incorporar esos puntos de vista a través de consultas con los clientes y protocolos de mitigación temprana antes de implementar el sistema de IA ayuda a su aceptación y funcionamiento sin problemas. Del mismo modo, es común identificar sesgos en los datos de entrenamiento durante el diseño y la implementación. La práctica de ingeniería ha avanzado mucho últimamente y permite a los profesionales entrenar con casos límite, probar diferentes modelos de aprendizaje automático y proporcionar suficiente orientación y educación sobre la modelización para que todos en la organización tengan un interés en garantizar que el modelo funcione según lo previsto y tenga sentido. Sin embargo, no debemos esperar que nuestros sistemas de IA sean completamente imparciales y justos para todos. Esto llevará tiempo.

Los datos sesgados han existido durante tanto tiempo como los archivos de la sociedad que registran la vida cotidiana. Desde datos históricos sesgados (en la década de 1950, la mayoría de los médicos eran hombres) hasta asociaciones de palabras con estereotipos (belleza=femenino, fortaleza=masculino), nuestros archivos digitales de la sociedad están llenos de todo tipo de datos sesgados. La verdadera oportunidad de la ética de la IA es aplicar prácticas éticas en todas las tareas empresariales. Por lo tanto, abordar la ética en la IA puede tener un impacto más amplio que solo los sistemas de IA que utilizamos. Pero esto llevará tiempo, ya que la sociedad y las empresas deben cambiar y adoptar nuevas normas para medir el éxito: la ética no se trata como una necesidad, sino que se prioriza la generación de ganancias y el rendimiento. Es necesario establecer los incentivos y procedimientos adecuados para que las empresas puedan priorizar la ética e incorporarla en su cultura corporativa. Una forma de hacerlo es trabajar y adoptar prácticas de diseño.

Una cultura de diseño permite a una empresa tratar la ética como un ciudadano de primera clase, no como una idea posterior. Todas las empresas deberían incorporar la noción de IA responsable desde el diseño. Esto debería ser tan común como la conciencia sobre el cambio climático o los acuerdos de cadenas de suministro justas. Del mismo modo, las empresas y la sociedad deben considerar la posibilidad de que un sistema de IA aún pueda tener sesgos. Sin embargo, a medida que avanzamos rápidamente con una noción mecanicista y matemáticamente comprobada de equidad y desactivación de sesgos en los datos, se puede demostrar que el sistema de IA puede discriminar menos que los humanos. Esto es importante, ya que la aceptación social llevará tiempo y las historias de éxito de la IA ética necesitan atención y celebración para convencer al consumidor escéptico.

Marco ético y procedimientos adecuados

Existen numerosos marcos y tutorials disponibles para ayudar a las organizaciones a comenzar. En los últimos tres años, ha habido una explosión de marcos éticos en todo el entorno. Sin embargo, la mayoría de ellos no son útiles porque son muy vagos y generales en sus objetivos, y no indican a las empresas cómo pueden lograr estos objetivos. A pesar de esto, la existencia de todos estos marcos ayuda a las organizaciones a establecer los procedimientos adecuados para la rendición de cuentas.

También es importante no reducir la ética al cumplimiento normativo, ya que la tecnología avanza rápidamente. Los expertos recomiendan involucrar a la audiencia, es decir, a los consumidores, en la discusión. Esto ayuda a ajustar el sistema de IA y crear afinidad con los resultados.

Por último, pero no menos importante, un dato preocupante revelado por los expertos del campo es que hay una proporción increíblemente baja de investigadores de IA que son mujeres o pertenecen a minorías. La mayoría son hombres blancos, lo que genera sesgos en la IA. Es necesario contar con una fuerza laboral de IA más diversa e inclusiva, ya que la ética de la IA no es algo que pueda automatizarse por completo; siempre habrá un elemento humano involucrado, y es mejor asegurarse de que este sea lo más diverso e inclusivo posible.

Sin embargo, existe un aspecto positivo y progresista en la ética de la IA. Por primera vez en la historia, puede revelar todos los sesgos latentes en nuestros datos históricos pasados y ayudarnos a diseñar y construir un enfoque mejor. Las organizaciones que puedan operar IA ética, segura y confiable serán más atractivas para el consumidor consciente del siglo XXI.

Yannis Kalfoglou, PhD, es un profesional experimentado con más de 30 años de experiencia y exposición a la IA. Técnicamente, Yannis está bien versado en el arte y la ciencia de la ingeniería de IA y en la construcción de sistemas de vanguardia. Profesionalmente, lideró el programa de innovación impulsado por el cliente de Ricoh en Europa y el programa de innovación de Invesco. Ha asesorado a clientes en el uso ético de la tecnología de IA con PA Consulting y ha desarrollado una estrategia de IA para Samsung y BP. Actualmente lidera el programa de IA de Frontiers.

Si quieres conocer otras notas parecidas a Límites y ética de la inteligencia artificial puedes visitar la categoría Inteligencia.

Subir