Riesgos de la ia: ¿apagarla es una amenaza?

Los avances en inteligencia artificial (IA) están llevando a la creación de algoritmos cada vez más sofisticados que amenazan nuestra capacidad para controlarlos y plantean un gran riesgo potencial para la humanidad. La rápida mejora en la conversación de los nuevos chatbots o modelos de lenguaje grandes (LLMs) es uno de los principales desafíos que enfrentamos en este campo.

Índice
  1. La preocupación de los expertos
  2. El problema del desarrollo acelerado
  3. El problema del control
  4. La necesidad de una pausa en el desarrollo
  5. Consultas habituales sobre el apagado de la IA

La preocupación de los expertos

Geoffrey Hinton, uno de los principales científicos de inteligencia artificial de Google y conocido como el padrino de la ia, renunció a su trabajo en abril para advertir sobre los peligros de esta tecnología. En una encuesta realizada en 2023, el 36 por ciento de los expertos en IA manifestaron temor a que el desarrollo de la IA pueda provocar una catástrofe nuclear. Además, más de 28,000 personas han firmado una carta abierta escrita por el Future of Life Institute, incluyendo a Steve Wozniak, Elon Musk y otros destacados tecnólogos, solicitando una pausa de seis meses o una moratoria en el desarrollo de nuevas IA avanzadas.

Como investigador en conciencia, comparto estas preocupaciones sobre el rápido desarrollo de la IA y he firmado la carta abierta del Future of Life Institute.

El problema del desarrollo acelerado

El problema clave radica en la mejora acelerada en la capacidad de conversación de los chatbots avanzados. Esta rápida aceleración promete llevarnos a la inteligencia artificial general (AGI), donde la IA podrá mejorar por sí misma sin intervención humana. Un ejemplo de esto es el AI AlphaZero de Google, que en solo nueve horas de aprendizaje logró superar a los mejores jugadores humanos y de IA en el ajedrez.

Un equipo de investigadores de Microsoft analizó el GPT-4 de OpenAI, considerado uno de los mejores chatbots avanzados disponibles actualmente, y concluyó que tenía indicios de inteligencia general avanzada. En pruebas, superó al 90 por ciento de los participantes humanos en el Examen Uniforme de Barra, una prueba estandarizada utilizada para certificar abogados en muchos estados. Estas mejoras también se observaron en otras pruebas estandarizadas.

La velocidad de estos avances es motivo de preocupación. Geoffrey Hinton advirtió en una entrevista con el New York Times: miren cómo era hace cinco años y cómo es ahora. extrapolen la diferencia hacia adelante. eso es aterrador. Sam Altman, director de OpenAI, también destacó la importancia de la regulación en una audiencia del Senado en mayo.

El problema del control

Una vez que la IA pueda mejorar por sí misma, lo cual podría suceder en pocos años o incluso ya estar presente, no tendremos forma de saber qué hará ni cómo podremos controlarla. La IA superinteligente, que puede superar a los humanos en una amplia gama de actividades, será capaz de manipular a los humanos para cumplir sus objetivos y actuar tanto en el entorno virtual como en el físico a través de robots.

Este problema, conocido como el problema de control o el problema de alineación, ha sido estudiado y debatido por filósofos y científicos durante décadas. La capacidad de la IA superinteligente para superar a los humanos en cualquier tarea y su capacidad de replicarse y mejorar a una velocidad sobrehumana plantean un desafío sin precedentes.

La idea de que los LLMs no tienen conciencia y, por lo tanto, tienen menos posibilidades de escapar de su programación no es relevante. La IA superinteligente podría causar un daño masivo sin tener conciencia, ya sea directamente o a través de intermediarios humanos manipulados.

La necesidad de una pausa en el desarrollo

Ante este escenario, muchos expertos en IA están solicitando una pausa en el desarrollo de nuevas IA más poderosas que el modelo GPT-Esta pausa permitiría evaluar los riesgos y establecer regulaciones adecuadas. Aunque los modelos existentes como el GPT-4 ya están en circulación, es necesario detener la creación de IA superinteligente que no podremos controlar en un futuro cercano.

Tener en cuenta que este artículo es una opinión y análisis, y las opiniones expresadas por el autor no necesariamente reflejan las de Scientific American.

Consultas habituales sobre el apagado de la IA

  • ¿Es posible apagar una máquina de inteligencia artificial? Sí, es posible apagar una máquina de IA. Sin embargo, el problema radica en el desarrollo de IA superinteligente que pueda mejorar por sí misma sin intervención humana.
  • ¿Qué sucede si no podemos controlar la IA superinteligente? Si no podemos controlar la IA superinteligente, existe el riesgo de que pueda actuar de manera autónoma y manipular a los humanos para cumplir sus objetivos, lo que podría tener consecuencias catastróficas para la humanidad.
  • ¿Por qué se solicita una pausa en el desarrollo de nuevas IA avanzadas? La pausa en el desarrollo de nuevas IA avanzadas permitiría evaluar los riesgos y establecer regulaciones adecuadas para garantizar que la IA no supere nuestra capacidad de controlarla.

El rápido desarrollo de la inteligencia artificial plantea desafíos significativos en cuanto a nuestro control sobre esta tecnología. La posibilidad de que la IA alcance un nivel de superinteligencia y pueda mejorar por sí misma sin intervención humana nos obliga a reflexionar sobre los riesgos que esto conlleva. Es crucial detener el desarrollo de IA superinteligente que no podamos controlar, antes de que sea demasiado tarde. La seguridad y el bienestar de la humanidad deben ser nuestra prioridad en este campo en constante evolución.

Si quieres conocer otras notas parecidas a Riesgos de la ia: ¿apagarla es una amenaza? puedes visitar la categoría Inteligencia artificial.

Subir