La verdad sobre la inteligencia artificial: ¿realidad o alucinaciones?

En la actualidad, la sociedad se encuentra en una fase de enamoramiento con la inteligencia artificial generativa, pero poco a poco comenzamos a despertar y a reconocer que el objeto de nuestro afecto puede no ser del todo digno de confianza. Todos, excepto los entusiastas más fervientes, nos hemos dado cuenta de que no podemos dar por sentado que las aplicaciones de IA nos dicen la verdad.

ChatGPT entrega con desvergüenza tanto hechos como ficción en respuesta a nuestras consultas. La descripción predominante de estos vuelos de fantasía es alucinaciones, un término antropomorfizante que implica que la aplicación realmente desea ser honesta con nosotros, pero se ve obstaculizada inadvertidamente por una ocasional ruptura esquizofrénica con la realidad.

Este vocabulario es peligrosamente engañoso. Por supuesto, hablar de la IA como si fuera algo más personal que la compleja interacción de unos y ceros es nuestro primer error. Los programas de IA actúan de manera inteligente, si con eso nos referimos a capacidad de adaptación. Lo que distingue a la IA del software común y corriente es su capacidad para adaptarse en respuesta a la retroalimentación acumulada. Llamamos a estos procesos aprendizaje automático o aprendizaje profundo, y los diseños de IA más avanzados se conocen como redes neuronales, todos términos que se asemejan al funcionamiento de las mentes humanas.

Pero estos términos son más analógicos que precisos. La IA no es, y no puede ser, inteligente de la misma manera que un cerebro humano, porque el software carece de una mente. Merriam Webster define más a fondo inteligencia como el uso hábil de la razón y la capacidad de aplicar el conocimiento... o de pensar abstractamente. Las máquinas no pueden hacer nada de esto. Si un programa de IA genera datos que coinciden con la realidad, eso es el feliz resultado del esfuerzo del programador humano. Estos programadores son como ingenieros civiles que diseñan una compleja red de tuberías subterráneas con la suficiente precisión para asegurar que el agua fluya solo hacia el lugar deseado. Pero un programa de IA no sabe si está diciendo la verdad, al igual que una tubería no sabe si está entregando correctamente el agua, porque no tiene una mente con la cual determinar qué es la realidad.

Al menos la IA no puede mentirnos. Un mentiroso es alguien que reconoce la verdad y elige engañar al oyente haciéndole creer algo diferente. La IA no puede saber la verdad, por lo que no puede mentir.

Pero tampoco puede alucinar. Alucinar sigue siendo percibir una realidad, aunque no sea la real. Entonces, si vamos a seguir hablando de la IA en términos antropomorfizados, al menos debemos ser más precisos. Adormecernos con una comprensión equivocada de cómo funciona el software nos prepara para malinterpretar tanto sus limitaciones como sus verdaderas utilidades potenciales. Con ese fin, propongo que la forma más precisa de describir la salida de los programas de IA generativa es, utilizando la abreviatura, bs.

la verdad sobre la inteligencia artificial - La IA dice la verdad

Lo digo en serio. En un libro de 2005 que se convirtió en su publicación más popular, el filósofo Harry G. Frankfurt se propuso definir este término a menudo utilizado pero mal comprendido. Titulado sobre el bs, el libro postula que la esencia del [bs] no es que sea falso, sino que es falso. A diferencia de un mentiroso, que está activamente tratando de alejarnos de una comprensión correcta de la realidad, el artista del BS no le importa si las cosas que dice describen correctamente la realidad. simplemente las elige o las inventa para adaptarse a su propósito.

Eso describe las conversaciones de ChatGPT con nosotros. La única diferencia entre un chatbot y un artista del BS humano es que la persona lo hace intencionalmente. La IA no tiene intención. Pero eso solo afianza la descripción. Como dice Frankfurt, [bs] es inevitable siempre que las circunstancias requieran que alguien hable sin saber de qué está hablando. Dado que ChatGPT no puede saber de qué está hablando, no puede decir nada más que BS.

Esto es más fácil de ver en el contexto de un chatbot, pero el mismo principio se aplica a todas las manifestaciones de la IA. Los humanos que confían en la información generada por la IA como si fuera un consejo confiable ya han causado resultados desastrosos en numerosas industrias.

Las herramientas impulsadas por IA serán útiles para una gama cada vez más amplia de aplicaciones que informan y asisten en la toma de decisiones humanas, pero siempre deben ser utilizadas por humanos que ejerzan un juicio independiente. Las soluciones de IA deben implementarse dentro de límites restrictivos suficientes para garantizar que la salida final del programa sea lo suficientemente probable como para correlacionarse con la realidad y ser útil (después de una revisión y revisión dirigidas por humanos) para su propósito previsto. Los parámetros aceptables variarán según el contexto. Pero en la medida en que nos permitamos a nosotros mismos o a nuestras empresas confiar acríticamente en la IA generativa como fuente de verdad en lugar de como el BS a veces útil que es, nos arrepentiremos.

Brian D. Wassom es socio de Warner Norcross + Judd, donde lidera la práctica de Litigios de Contenido, Branding y Medios y preside el Grupo de Medios y Tecnologías Emergentes de la firma. Tiene un certificado en inteligencia artificial de la Escuela de Ingeniería de Wayne State y asesora a clientes, desde empresas Fortune 500 hasta negocios locales, en temas de IA.

Si quieres conocer otras notas parecidas a La verdad sobre la inteligencia artificial: ¿realidad o alucinaciones? puedes visitar la categoría Inteligencia artificial.

Subir