El peligro de las máquinas inteligentes - stephen hawking

En sus últimas escrituras, el fallecido físico Stephen Hawking predice que una raza de superhumanos tomará el control, habiendo utilizado la ingeniería genética para superar a sus semejantes. En su libro respuestas breves a las grandes preguntas, que se publicará el 16 de octubre, Hawking no se guarda nada en temas como el dominio de las máquinas, la mayor amenaza para la Tierra y las posibilidades de vida inteligente en el espacio.

Índice
  1. La advertencia de Stephen Hawking sobre la inteligencia artificial
  2. El sombrío futuro de la Tierra, la edición genética y los superhumanos
  3. Vida inteligente en el espacio
  4. ¿Existe Dios?
  5. Las mayores amenazas para la Tierra
  6. La mejor idea que la humanidad podría implementar
    1. Consultas habituales

La advertencia de Stephen Hawking sobre la inteligencia artificial

Hawking advierte seriamente sobre la importancia de regular la inteligencia artificial, señalando que en el futuro, la ia podría desarrollar su propia voluntad, una voluntad que está en conflicto con la nuestra. Un posible carrera armamentística de armas autónomas debe detenerse antes de que pueda comenzar, escribe, preguntándose qué sucedería si ocurriera un colapso similar al Flash Crash del mercado de valores de 2010 con armas. Continúa diciendo:

La llegada de una IA superinteligente podría ser la mejor o la peor cosa que le haya pasado a la humanidad. El verdadero riesgo con la IA no es la malicia, sino la competencia. Una IA superinteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estaremos en problemas. Probablemente no seas alguien que odia a las hormigas y las aplasta por maldad, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que debe ser inundada, mala suerte para las hormigas. No coloquemos a la humanidad en la posición de esas hormigas.

El sombrío futuro de la Tierra, la edición genética y los superhumanos

La mala noticia: en algún momento de los próximos 1,000 años, una guerra nuclear o una calamidad ambiental paralizará a la tierra. Sin embargo, para entonces, nuestra ingeniosa raza habrá encontrado una manera de escapar de la tierra y, por lo tanto, sobrevivirá al desastre. Probablemente las otras especies de la Tierra no lo lograrán.

Los humanos que logren escapar de la Tierra probablemente serán nuevos superhumanos que hayan utilizado tecnología de edición genética como CRISPR para superar a los demás. Lo harán desafiando las leyes contra la ingeniería genética, mejorando su memoria, resistencia a enfermedades y esperanza de vida, dice Hawking.

Hawking parece estar curiosamente entusiasmado con este último punto, escribiendo: no hay tiempo para esperar a que la evolución darwiniana nos haga más inteligentes y de mejor naturaleza.

Una vez que aparezcan estos superhumanos, habrá problemas políticos significativos con los humanos no mejorados, que no podrán competir. Presumiblemente, desaparecerán o se volverán irrelevantes. En su lugar, habrá una raza de seres autodiseñados que se están mejorando a un ritmo cada vez mayor. Si la raza humana logra rediseñarse, probablemente se dispersará y colonizará otros planetas y estrellas.

Vida inteligente en el espacio

Hawking reconoce que existen diversas explicaciones sobre por qué no se ha encontrado vida inteligente o por qué no ha visitado la Tierra. Sus predicciones aquí no son tan audaces, pero su explicación preferida es que los humanos han pasado por alto formas de vida inteligente que están ahí fuera.

¿Existe Dios?

No, dice Hawking. La pregunta es si el comienzo del universo fue elegido por Dios por razones que no podemos entender, o si fue determinado por una ley de la ciencia. Yo creo en lo segundo. Si quieres, puedes llamar a las leyes de la ciencia dios, pero no sería un Dios personal al que te encontrarías y al que le harías preguntas.

Las mayores amenazas para la Tierra

La amenaza número uno es una colisión de asteroides, como la que mató a los dinosaurios. Sin embargo, no tenemos defensa contra eso, escribe Hawking. Más inmediatamente: el cambio climático. un aumento en la temperatura del océano derretiría los casquetes polares y provocaría la liberación de grandes cantidades de dióxido de carbono, escribe Hawking. ambos efectos podrían hacer que nuestro clima sea similar al de venus, con una temperatura de 250°c.

La mejor idea que la humanidad podría implementar

La energía de fusión nuclear. Eso nos daría energía limpia sin contaminación ni calentamiento global.

Consultas habituales

  • ¿Por qué Stephen Hawking advierte sobre el peligro de las máquinas inteligentes?
  • ¿Cuál es la advertencia de Hawking sobre la inteligencia artificial?
  • ¿Cuál es el futuro sombrío de la Tierra según Hawking?
  • ¿Qué opina Hawking sobre la existencia de Dios?
  • ¿Cuáles son las mayores amenazas para la Tierra según Hawking?
  • ¿Cuál es la mejor idea que la humanidad podría implementar según Hawking?

Stephen Hawking advierte sobre los peligros potenciales de las máquinas inteligentes y la importancia de regular la inteligencia artificial. También habla sobre el futuro de la Tierra, la posibilidad de superhumanos a través de la edición genética y la existencia de vida inteligente en el espacio. Sus advertencias y predicciones nos animan a reflexionar sobre el futuro de nuestra especie y las decisiones que tomamos en el presente.

Si quieres conocer otras notas parecidas a El peligro de las máquinas inteligentes - stephen hawking puedes visitar la categoría Inteligencia artificial.

Subir