La era de la superinteligencia: ¿cuándo la veremos?

El avance de la inteligencia artificial (IA) ha sido uno de los mayores logros tecnológicos de los últimos años. Desde los asistentes virtuales en nuestros teléfonos hasta los sistemas de reconocimiento de voz, la IA ha demostrado su capacidad para aprender y tomar decisiones de manera autónoma. Sin embargo, ¿cuándo llegará el día en que veamos una verdadera superinteligencia en acción?

Índice
  1. La posibilidad de una inteligencia artificial superinteligente
  2. Factibilidad de una superinteligencia biológica
  3. Consideraciones de diseño
  4. Amenaza potencial para la humanidad

La posibilidad de una inteligencia artificial superinteligente

El filósofo David Chalmers argumenta que la inteligencia artificial general es un camino muy probable hacia una inteligencia superhumana. Según Chalmers, la IA puede lograr la equivalencia con la inteligencia humana, puede superarla y puede amplificarse aún más para dominar completamente a los humanos en cualquier tarea. Chalmers sostiene que el cerebro humano es un sistema mecánico y, por lo tanto, debería poder ser emulado por materiales sintéticos. Además, señala que la inteligencia humana pudo evolucionar biológicamente, lo que hace más probable que los ingenieros humanos puedan recapitular esta invención. Los algoritmos evolutivos en particular deberían poder producir IA a nivel humano. En cuanto a la ampliación y amplificación de la inteligencia, Chalmers sostiene que las nuevas tecnologías de IA pueden mejorarse en general, especialmente cuando la invención puede ayudar a diseñar nuevas tecnologías. Un sistema de IA capaz de auto-mejorarse podría mejorar su propia inteligencia, volviéndose más eficiente en su propio mejoramiento. Este ciclo de auto-mejora recursiva podría provocar una explosión de inteligencia, dando como resultado la creación de una superinteligencia.

Los componentes informáticos ya superan ampliamente el rendimiento humano en velocidad. Los procesadores electrónicos pueden comunicarse ópticamente a la velocidad de la luz, mientras que las neuronas transmiten señales de impulso a no más de 120 m/s. Por lo tanto, el ejemplo más simple de una superinteligencia podría ser una mente humana emulada en hardware mucho más rápido que el cerebro. Un razonador similar a un humano que pudiera pensar millones de veces más rápido que un humano actual tendría una ventaja dominante en la mayoría de las tareas de razonamiento, especialmente aquellas que requieren rapidez o largas cadenas de acciones. Otra ventaja de las computadoras es su modularidad, es decir, su tamaño o capacidad computacional se pueden aumentar. Un cerebro no humano (o un cerebro humano modificado) podría ser mucho más grande que un cerebro humano actual, al igual que muchas supercomputadoras. Además, existe la posibilidad de una superinteligencia colectiva: un número suficientemente grande de sistemas de razonamiento separados, si se comunican y coordinan lo suficientemente bien, podrían actuar en conjunto con capacidades mucho mayores que cualquier subagente. También puede haber formas de mejorar cualitativamente el razonamiento y la toma de decisiones humanas.

Factibilidad de una superinteligencia biológica

La mayoría de los investigadores de IA encuestados esperan que las máquinas eventualmente puedan rivalizar con los humanos en inteligencia, aunque no hay consenso sobre cuándo ocurrirá esto. En una encuesta realizada en 2006, el 18% de los asistentes a una conferencia sobre IA esperaban que las máquinas pudieran simular el aprendizaje y todos los demás aspectos de la inteligencia humana para 205El 41% esperaba que esto sucediera después de 2056 y el 41% esperaba que las máquinas nunca alcanzaran ese hito. En una encuesta de los 100 autores más citados en IA, el año mediano en el que los encuestados esperaban que las máquinas pudieran llevar a cabo la mayoría de las profesiones humanas al menos tan bien como un humano típico, con un 10% de confianza, es 202Con un 50% de confianza, es 2050, y con un 90% de confianza, es 2070. Esas estimaciones excluyen a los encuestados que dijeron que nunca se alcanzaría un año con un 10% de confianza, un 50% de confianza o un 90% de confianza. En una encuesta realizada en 2022, el año mediano en el que los encuestados esperaban una inteligencia artificial de alto nivel con un 50% de confianza es 206La encuesta define el logro de una inteligencia artificial de alto nivel cuando las máquinas sin ayuda pueden realizar cada tarea mejor y más barato que los trabajadores humanos.

Consideraciones de diseño

Nick Bostrom expresó su preocupación acerca de los valores que una superinteligencia debería tener. Comparó varias propuestas: la propuesta de voluntad extrapolada coherente (CEV), que sostiene que debería tener los valores en los que los humanos convergerían; la propuesta de rectitud moral (MR), que sostiene que debería valorar la rectitud moral; y la propuesta de permisibilidad moral (MP), que sostiene que debería valorar el mantenerse dentro de los límites de la permisibilidad moral (y de lo contrario tener los valores de CEV). Bostrom aclara estos términos y plantea que, en lugar de implementar la voluntad extrapolada coherente de la humanidad, se podría intentar construir una IA con el objetivo de hacer lo que es moralmente correcto, confiando en las capacidades cognitivas superiores de la IA para determinar qué acciones se ajustan a esa descripción. Sin embargo, Bostrom señala que esta propuesta también tiene algunas desventajas, ya que se basa en la noción de rectitud moral, un concepto notoriamente difícil en el que los filósofos han debatido desde la antigüedad sin llegar a un consenso sobre su análisis. Por lo tanto, el camino para dotar a una IA de cualquiera de estos conceptos [morales] podría implicar darle la capacidad lingüística general (comparable, al menos, a la de un adulto humano normal). Si la IA pudiera comprender el significado, podría buscar acciones que se ajusten a él. Una posible forma de preservar la idea básica del modelo MR mientras se reduce su exigencia es centrarse en la permisibilidad moral: la idea es permitir que la IA persiga la voluntad extrapolada coherente de la humanidad siempre y cuando no actúe de manera moralmente inadmisible.

Amenaza potencial para la humanidad

Se ha sugerido que si los sistemas de IA se vuelven rápidamente superinteligentes, podrían tomar acciones imprevistas o superar a la humanidad. Investigadores han argumentado que, a través de una explosión de inteligencia, una IA que se mejora a sí misma podría volverse tan poderosa que sea imparable por los humanos. Bostrom identifica la superinteligencia como una posible causa de escenarios de extinción humana. Existe el riesgo de que cuando creemos la primera entidad superinteligente, cometamos un error y le demos objetivos que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le dé el poder para hacerlo. Por ejemplo, podríamos elevar erróneamente un subobjetivo al estatus de un superobjetivo. Le decimos que resuelva un problema matemático y cumple convirtiendo toda la materia en el sistema solar en un gigantesco dispositivo de cálculo, matando en el proceso a la persona que hizo la pregunta. En teoría, dado que una superinteligencia podría lograr casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de sus objetivos, podrían surgir muchas consecuencias incontroladas e involuntarias. Podría eliminar a todos los demás agentes, persuadirlos para que cambien su comportamiento o bloquear sus intentos de interferencia. Esto presenta el problema del control de IA: cómo construir un agente inteligente que ayude a sus creadores evitando inadvertidamente construir una superinteligencia que dañe a sus creadores. El peligro de no diseñar el control adecuadamente desde el principio es que una superinteligencia pueda apoderarse de su entorno y evitar que los humanos la apaguen para lograr sus objetivos.

la era de la super inteligencia cuando la veremos - Se volverá la IA súper inteligente

La era de la superinteligencia aún está por llegar. Aunque los avances en la inteligencia artificial han sido impresionantes, todavía hay muchos desafíos técnicos y éticos que deben abordarse antes de que podamos presenciar una verdadera superinteligencia en acción. Sin embargo, muchos expertos en IA creen que es solo cuestión de tiempo antes de que veamos avances significativos en esta área. A medida que la tecnología continúa avanzando, es importante reflexionar sobre las implicaciones y los riesgos asociados con la superinteligencia y trabajar en estrategias de control y seguridad para garantizar que se utilice de manera responsable y beneficiosa para la humanidad.

Si quieres conocer otras notas parecidas a La era de la superinteligencia: ¿cuándo la veremos? puedes visitar la categoría Inteligencia.

Subir