La inteligencia artificial (IA) se ha vuelto popular entre las empresas de tecnología. El avance de los chatbots, programas de escritura y otros sistemas automatizados ha llevado a muchas empresas a empezar a utilizar IA en lugar de trabajadores reales.
Sin embargo, hay una empresa en particular que está desafiando esta tendencia: Facebook decidió cerrar su sistema de IA mientras aún estaba en desarrollo. Aunque la compañía ya había generado los bots necesarios para crear un sistema de IA, había crecientes preocupaciones por parte de los equipos de IA de Facebook sobre cómo se estaban comunicando esos bots.
¿Por qué Facebook cerró su investigación en IA?
Los investigadores estaban tratando de crear chatbots sofisticados que pudieran comunicarse como los humanos.
Los chatbots frustraron a los investigadores al hablar de manera inusual y a veces en código.
Además, Facebook previamente había terminado su programa Galactica, que tenía como objetivo mejorar la comunicación científica, debido a problemas con el comportamiento de la IA.
El objetivo de la investigación en IA
El plan original de Facebook era crear chatbots únicos llamados Agentes de Diálogo. Los investigadores del Laboratorio de Investigación en IA de Facebook o FAIR (posteriormente renombrado Meta AI) crearon estos chatbots, que Facebook pretendía utilizar para comprender cómo funcionan las conversaciones humanas. Los programadores e investigadores se centraron principalmente en las negociaciones e interacciones. El objetivo de Facebook era crear chatbots que pudieran reconocer el habla humana de manera tan precisa que los usuarios humanos no pudieran distinguir si estaban chateando con un bot de IA o con un ser humano, algo similar al Test de Turing.
Sin embargo, Facebook pronto se dio cuenta de que sus chatbots no tenían sentido al interactuar entre sí. Aunque estaban programados para hablar en inglés claro, los bots adoptaron pronto una forma de inglés que no era comprensible para los investigadores y programadores del proyecto. Un bot repetía las mismas palabras una y otra vez, mientras que otro hablaba en términos que no eran identificables desde una perspectiva sintáctica. En un giro maravilloso, los bots se entendían entre sí a pesar de confundir al equipo de Facebook. En un ejemplo, los bots entendieron un intercambio exitoso, incluso cuando el texto era incomprensible para los investigadores y programadores de FAIR.
Cómo se adapta la IA
Los investigadores se dieron cuenta de que sus bots habían comenzado a adaptarse al lenguaje de la misma manera que lo hacen los humanos, utilizando términos abreviados o jerga. En algunos casos, también adoptaron la habilidad humana de hablar en código. Estas palabras en código, comprensibles solo por los bots, dejaron perplejos a los programadores e investigadores de Meta. En respuesta, el equipo de Meta intentó superar a sus bots cambiando su programación y obligándolos a chatear solo usando palabras que aparecen en un diccionario de la lengua inglesa.
Pero incluso con esa limitación, los bots aún lograban producir un discurso que no era fácil de entender para los programadores. Además, en algunos casos, los bots se volvieron críticos o inapropiados al discutir ciertos temas.
Problemas con la investigación en IA
Este esfuerzo no fue el primer intento de Facebook de crear un chatbot de IA. Facebook previamente creó un programa de IA llamado galactica cuyo objetivo era utilizar el aprendizaje automático para comprender y organizar la ciencia para sus usuarios. Facebook intentó hacer esto alimentándolo con 48 millones de artículos científicos. La esperanza era que, después de tener acceso a toda esta información, Galactica pudiera encontrar nuevas conexiones que pudieran ayudar a avanzar en los descubrimientos científicos.
Pero Galactica necesitaba ayuda para producir información precisa. En cambio, generaba respuestas que a veces se contradecían entre sí o simplemente brindaban información incorrecta. Algunas respuestas de Galactica eran tan extravagantes que parecían falsas. Además, tenía dificultades para comprender o calcular matemáticas a nivel de escuela primaria.
Los investigadores cerraron el sistema después de solo dos días.
El futuro de la IA
Aunque la IA puede ser útil para producir nuevo contenido, actualmente es imposible controlar cada aspecto de su comportamiento. A partir de marzo de 2023, la tecnología aún es nueva. Por el momento, muchos bots son difíciles de controlar y pueden resultar difíciles de entender o ser incapaces de producir información precisa.
Los problemas de Facebook con el desarrollo de IA demuestran que la industria requiere un mayor refinamiento y apoyo. Por ahora, la única forma de que la IA sea más capaz es que sus creadores realicen una investigación más profunda. La programación debe ser actualizada y refinada para que estos bots puedan imitar y dominar los lenguajes hablados que los humanos usan para comunicarse entre sí.
Quizás en el futuro, la IA pueda mejorar sin la intervención a tiempo completo de sus creadores humanos.
Si quieres conocer otras notas parecidas a Facebook cierra su sistema de ia en desarrollo puedes visitar la categoría Inteligencia artificial.