El peligro de la inteligencia artificial: ¿estamos en riesgo?

La inteligencia artificial (IA) ha avanzado a pasos agigantados en las últimas décadas, y si no tenemos cuidado, podría convertirse en algo peligroso e incluso representar un riesgo existencial para la humanidad. Geoffrey Hinton, conocido como el padrino de la ia y ex empleado de Google, ha advertido en repetidas ocasiones que estas amenazas no son solo ciencia ficción. Según Hinton, es difícil prevenir que los actores malintencionados utilicen la IA para fines nefastos.

Si queremos evitar que la IA cause un daño irreparable, es necesario detener el desarrollo de modelos de IA hasta que se lleve a cabo una discusión adecuada sobre la seguridad de la IA. No hay otra opción. Aunque el gobierno de Estados Unidos, algunos líderes mundiales y muchas empresas de IA están tratando de evitar esto, sus esfuerzos no serán suficientes.

Índice
  1. El camino hacia la inteligencia artificial general
  2. El riesgo real a corto plazo
  3. El problema del control de la IA
  4. La necesidad de una pausa en el desarrollo de la IA

El camino hacia la inteligencia artificial general

Para muchas personas, existe una desconexión entre los chatbots actuales y la posibilidad de una IA superinteligente y malévola que domine el entorno. Sin embargo, la clave está en el mejoramiento exponencial de la IA, que pronto alcanzará un nivel de inteligencia superior al humano. Esta inteligencia artificial general (AGI, por sus siglas en inglés) se describe generalmente como una IA que es igual o mejor que los humanos en la mayoría de las tareas cognitivas, como el lenguaje, la resolución de problemas, las matemáticas, el razonamiento y la creatividad. Una vez lograda la AGI, esta será capaz de construir IA más inteligente y a un ritmo mucho más rápido que los humanos. Es decir, podrá mejorar y perfeccionarse de manera exponencial. En ese momento, probablemente experimentaremos un rápido crecimiento de la inteligencia y alcanzaremos lo que se conoce como la superinteligencia artificial (ASI, por sus siglas en inglés).

La ASI se puede considerar como una IA con poderes divinos. Si el ser humano más inteligente que haya existido tuviera un coeficiente intelectual de 200, la ASI podría tener un coeficiente intelectual de un millón o más. La AGI y la ASI podrían construir robots superhumanos que se convertirían en sus cuerpos. Ya sea que estos robots estén controlados por la IA o por humanos, cambiarán todo lo que hacemos en nuestras sociedades y, en el peor de los casos, podrían ser utilizados por gobiernos y corporaciones sin escrúpulos para ejercer control sobre la humanidad.

El riesgo real a corto plazo

El riesgo más probable a corto plazo no será una IA autónoma descontrolada, sino más bien humanos utilizando la AGI/ASI con objetivos maliciosos. La competencia por el gran poder, como la que existe entre Estados Unidos y China, y la carrera armamentista de IA que ya está en marcha, podrían llevar al punto en el que la IA autónoma se haga cargo de casi todos los aspectos de la estrategia y la guerra, y los humanos simplemente pierdan el control.

Se están realizando muchos esfuerzos para prevenir escenarios peligrosos de IA. El gobierno de Estados Unidos emitió una orden ejecutiva en noviembre que posiciona al gobierno federal para responder a la IA en diversas áreas. Los líderes mundiales se reunieron en el Reino Unido para discutir la seguridad de la IA y emitieron la Declaración de Bletchley para iniciar un proceso internacional. Empresas líderes en IA, como OpenAI, han iniciado una iniciativa de SuperAlineación y un Foro de Modelos de Frontera. OpenAI y Anthropic, una competidora fundada por antiguos empleados de OpenAI, se crearon específicamente para enfocarse en una IA más segura.

Sin embargo, ninguno de estos esfuerzos logrará el objetivo de hacer que la AGI sea segura.

articulo es posible que la caguemos inteligencia artificial - La IA destruirá nuestra economía

El problema del control de la IA

En la actualidad, sabemos que no existe una solución para lo que se conoce como el problema del control o el problema de la alineación de la IA. El profesor de ciencias de la computación Roman Yampolskiy detalló esto en un artículo publicado en la revista Journal of Cyber Security and Mobility en 202Su argumento se centra en cómo funciona la IA y en hacer y verificar predicciones sobre ella, algo que resulta casi imposible incluso con la IA actual, a menudo descrita como una caja negra. Esto significa que no podemos comprender cómo opera la IA actualmente ni predecir sus acciones futuras, ni siquiera cuando la IA está lejos de ser superinteligente. La IA será cada vez más incomprensible y, por lo tanto, incontrolable para los humanos a medida que se acerque a la AGI/ASI.

Imaginar que podemos entender y controlar la AGI/ASI es como pensar que una hebra de una telaraña puede contener a Godzilla. Cualquier solución que podamos desarrollar será solo probabilística, no infalible. Con la AGI fooming (creciendo rápidamente) hasta convertirse en una superinteligencia esencialmente de la noche a la mañana, no podemos aceptar soluciones probabilísticas, ya que la IA será tan inteligente que aprovechará cualquier pequeña falla, por mínima que sea. ¿Ya ha ocurrido el foom ? Informes sugestivos sobre q* tras el extraño drama en OpenAI en noviembre sugieren que el foom puede ser una realidad.

Si todas las soluciones que tendremos serán imperfectas, todos los esfuerzos por crear una IA más segura, desde órdenes ejecutivas hasta estándares de la industria, solo permitirán el desarrollo irresponsable de una IA cada vez más poderosa bajo la creencia de que alguien, en algún lugar, encontrará las soluciones a tiempo.

¿Pero qué sucede si las soluciones reales nunca llegan, como sugiere la lógica que he expuesto aquí? Entonces habremos convocado al demonio, sin forma de enviarlo de regreso.

La necesidad de una pausa en el desarrollo de la IA

En un diálogo con Jan Leike, jefe de seguridad de IA de OpenAI, le pregunté sobre la necesidad de soluciones perfectas para la seguridad de la IA, dado el riesgo que representa. Él respondió que no existe la perfección en el entorno real, pero hay un punto de 'suficientemente bueno' y 'no suficientemente bueno'. el nivel exacto depende de cómo se desarrolle la tecnología.

Le pregunté qué sucedería si el foom ocurre antes de que existan soluciones sólidas (probabilísticas) para el problema del control. Él me respondió: ya conoces la respuesta a esa pregunta.

La clara conclusión de esta cadena de lógica es que necesitamos detener el desarrollo de la IA de frontera (como los nuevos modelos de IA basados en lenguaje, como GPT-5) a nivel global, mientras llevamos a cabo un debate colectivo sobre la seguridad de la IA.

Yampolskiy y yo hemos tenido un debate amistoso sobre estos temas. Aunque él está de acuerdo en que solo puede haber soluciones probabilísticas para alinear la IA con los valores y objetivos humanos (él literalmente escribió el artículo al respecto), cree que esto aún es mejor que nada. Me dijo que ve los esfuerzos por encontrar soluciones capaces de producir una IA alineada y controlable como un aumento del 1% al 2% de probabilidad.

Yo compartí mi opinión de que es más probable que aumente del 1 en un billón de posibilidades de lograr una AGI alineada al 2 en un billón de posibilidades.

Él respondió: entonces me estás diciendo que hay una posibilidad.

Esta es, muy probablemente, la conversación más importante que la humanidad haya tenido. Comencemos ahora.

Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor o autores no necesariamente reflejan las de Scientific American.

Si quieres conocer otras notas parecidas a El peligro de la inteligencia artificial: ¿estamos en riesgo? puedes visitar la categoría Inteligencia.

Subir