La primera máquina con inteligencia artificial: historia y avances

La inteligencia artificial (IA) es una disciplina joven de sesenta años, que es un conjunto de ciencias, teorías y técnicas (incluyendo lógica matemática, estadísticas, probabilidades, neurobiología computacional, ciencia de la computación) que tiene como objetivo imitar las habilidades cognitivas de un ser humano. Iniciada en el contexto de la Segunda Guerra Mundial, sus desarrollos están íntimamente vinculados a los de la informática y han llevado a las computadoras a realizar tareas cada vez más complejas, que antes solo podían ser delegadas a un ser humano.

Sin embargo, esta automatización sigue estando lejos de la inteligencia humana en el sentido estricto, lo que hace que el nombre esté abierto a críticas por parte de algunos expertos. La etapa final de sus investigaciones (una IA fuerte, es decir, la capacidad de contextualizar problemas especializados muy diferentes de manera totalmente autónoma) no se puede comparar en absoluto con los logros actuales (IA débil o moderada, extremadamente eficientes en su campo de entrenamiento). La IA fuerte, que solo se ha materializado en la ciencia ficción, requeriría avances en la investigación básica (no solo mejoras en el rendimiento) para poder modelar el entorno en su conjunto.

Desde 2010, sin embargo, la disciplina ha experimentado un nuevo auge, debido principalmente a la considerable mejora en la potencia informática de las computadoras y al acceso a cantidades masivas de datos.

Índice
  1. 1940-1960: Nacimiento de la IA en el contexto de la cibernética
  2. 1980-1990: Sistemas expertos
  3. Desde 2010: un nuevo auge basado en datos masivos y nueva potencia informática
    1. ¿Cuándo se inventó la inteligencia artificial?
    2. ¿Cuáles son las aplicaciones de la inteligencia artificial?
    3. ¿Cuál es la diferencia entre una IA fuerte y una IA débil ?

1940-1960: Nacimiento de la IA en el contexto de la cibernética

El período entre 1940 y 1960 estuvo fuertemente marcado por la conjunción de desarrollos tecnológicos (de los cuales la Segunda Guerra Mundial fue un acelerador) y el deseo de comprender cómo reunir el funcionamiento de las máquinas y los seres orgánicos. Para Norbert Wiener, pionero en cibernética, el objetivo era unificar la teoría matemática, la electrónica y la automatización como una teoría global del control y la comunicación, tanto en animales como en máquinas. Justo antes, ya se había desarrollado un primer modelo matemático y computacional de la neurona biológica (neurona formal) en 1943 por Warren McCulloch y Walter Pitts.

A principios de 1950, John Von Neumann y Alan Turing no crearon el término IA, pero fueron los padres fundadores de la tecnología detrás de ella: hicieron la transición de las computadoras a la lógica decimal del siglo XIX (que trataba valores del 0 al 9) a la lógica binaria de las máquinas (que se basa en el álgebra booleana, que trata cadenas de 0 o 1 más o menos importantes). Los dos investigadores formalizaron así la arquitectura de nuestras computadoras contemporáneas y demostraron que era una máquina universal, capaz de ejecutar lo que se programa. Turing, por otro lado, planteó por primera vez la cuestión de la posible inteligencia de una máquina en su famoso artículo de 1950 computing machinery and intelligence y describió un juego de imitación, donde un humano debería ser capaz de distinguir en un diálogo de teleimpresora si está hablando con un hombre o una máquina. Sin importar cuán controvertido pueda ser este artículo (esta prueba de turing no parece calificar para muchos expertos), a menudo se cita como el origen de la cuestión del límite entre lo humano y lo máquina.

El término ia podría atribuirse a John McCarthy del MIT (Instituto de Tecnología de Massachusetts), que Marvin Minsky (Universidad Carnegie-Mellon) define como la construcción de programas informáticos que se dedican a tareas que actualmente se realizan de manera más satisfactoria por seres humanos porque requieren procesos mentales de alto nivel como: aprendizaje perceptual, organización de la memoria y razonamiento crítico. La conferencia de verano de 1956 en el Dartmouth College (financiada por el Instituto Rockefeller) se considera la fundadora de la disciplina. Cabe destacar que fue un gran éxito lo que no fue una conferencia, sino más bien un taller. Solo seis personas, incluyendo a McCarthy y Minsky, permanecieron consistentemente presentes durante todo este trabajo (que se basó esencialmente en desarrollos basados en la lógica formal).

Aunque la tecnología setutorial siendo maravilloso y prometedora (ver, por ejemplo, el artículo de 1963 de Reed C. Lawlor, miembro del Colegio de Abogados de California, titulado lo que las computadoras pueden hacer: análisis y predicción de decisiones judiciales ), la popularidad de la tecnología volvió a caer a principios de la década de 1960. Las máquinas tenían muy poca memoria, lo que dificultaba el uso de un lenguaje informático. Sin embargo, ya había algunos fundamentos que aún están presentes hoy en día, como los árboles de solución para resolver problemas: el IPL, lenguaje de procesamiento de información, había permitido escribir desde 1956 el programa LTM (máquina teórica de teoría de la lógica) que tenía como objetivo demostrar teoremas matemáticos.

Herbert Simon, economista y sociólogo, profetizó en 1957 que la IA lograría vencer a un ser humano en el ajedrez en los próximos 10 años, pero la IA luego entró en un primer invierno. La visión de Simon resultó ser correcta... 30 años después.

1980-1990: Sistemas expertos

En 1968, Stanley Kubrick dirigió la película 2001: odisea del espacio, donde una computadora - HAL 9000 (a solo una letra de las de IBM) resume en sí misma toda la suma de cuestiones éticas planteadas por la IA: ¿representará un alto nivel de sofisticación, un bien para la humanidad o un peligro? El impacto de la película no será científico, pero contribuirá a popularizar el tema, al igual que el autor de ciencia ficción Philip K. Dick, quien nunca dejará de preguntarse si, algún día, las máquinas experimentarán emociones.

Fue con la llegada de los primeros microprocesadores a fines de la década de 1970 que la IA despegó nuevamente y entró en la edad de oro de los sistemas expertos.

El camino se abrió en realidad en el MIT en 1965 con DENDRAL (sistema experto especializado en química molecular) y en la Universidad de Stanford en 1972 con MYCIN (sistema especializado en el diagnóstico de enfermedades de la sangre y prescripción de medicamentos). Estos sistemas se basaban en un motor de inferencia, que estaba programado para ser un espejo lógico del razonamiento humano. Al ingresar datos, el motor proporcionaba respuestas de un alto nivel de experiencia.

Las promesas preveían un desarrollo masivo, pero el entusiasmo cayó nuevamente a fines de la década de 1980, principios de la década de 1990. La programación de dicho conocimiento requería en realidad mucho esfuerzo y, a partir de 200 a 300 reglas, había un efecto de caja negra donde no estaba claro cómo razonaba la máquina. El desarrollo y el mantenimiento se volvieron extremadamente problemáticos y, sobre todo, había formas más rápidas y muchas otras menos complejas y menos costosas posibles. Cabe recordar que en la década de 1990, el término inteligencia artificial casi se había vuelto tabú e incluso se habían introducido variaciones más modestas en el lenguaje universitario, como computación avanzada.

El éxito en mayo de 1997 de Deep Blue (sistema experto de IBM) en el juego de ajedrez contra Garry Kasparov cumplió la profecía de Herbert Simon en 1957, 30 años después, pero no respaldó la financiación y el desarrollo de esta forma de IA. El funcionamiento de Deep Blue se basaba en un algoritmo sistemático de fuerza bruta, donde se evaluaban y ponderaban todos los movimientos posibles. La derrota del humano quedó muy simbólica en la historia, pero en realidad Deep Blue solo logró tratar un perímetro muy limitado (el de las reglas del juego de ajedrez), muy lejos de la capacidad de modelar la complejidad del entorno.

primera maquina con inteligencia artificial - Cuándo se inventó la IA por primera vez

Desde 2010: un nuevo auge basado en datos masivos y nueva potencia informática

Dos factores explican el nuevo auge de la disciplina alrededor de 20

  • En primer lugar, el acceso a volúmenes masivos de datos. Antes, para poder utilizar algoritmos de clasificación de imágenes y reconocimiento de gatos, por ejemplo, era necesario realizar muestreos usted mismo. Hoy en día, una simple búsqueda en Google puede encontrar millones.
  • Luego, el descubrimiento de la eficiencia muy alta de los procesadores de tarjetas gráficas de computadora para acelerar el cálculo de algoritmos de aprendizaje. Como el proceso es muy iterativo, antes de 2010 podía llevar semanas procesar toda la muestra. La potencia informática de estas tarjetas (capaces de realizar más de mil billones de transacciones por segundo) ha permitido progresos considerable a un costo financiero limitado (menos de 1000 euros por tarjeta).

Este nuevo equipo tecnológico ha permitido algunos éxitos públicos significativos y ha impulsado la financiación: en 2011, Watson, la IA de IBM, ganará los juegos contra 2 campeones de Jeopardy!. En 2012, Google X (laboratorio de búsqueda de Google) podrá hacer que una IA reconozca gatos en un video. Se han utilizado más de 16,000 procesadores para esta última tarea, pero el potencial es extraordinario: una máquina aprende a distinguir algo. En 2016, AlphaGO (IA de Google especializada en juegos de Go) vencerá al campeón europeo (Fan Hui) y al campeón mundial (Lee Sedol) y luego a sí misma (AlphaGo Zero). Especificamos que el juego de Go tiene una combinatoria mucho más importante que el ajedrez (más que el número de partículas en el universo) y que no es posible obtener resultados tan significativos en fuerza bruta (como lo hizo Deep Blue en 1997).

¿De dónde vino este milagro? Un cambio de paradigma completo con respecto a los sistemas expertos. El enfoque se ha vuelto inductivo: ya no se trata de codificar reglas como en los sistemas expertos, sino de dejar que las computadoras las descubran solas mediante correlación y clasificación, sobre la base de una gran cantidad de datos.

Entre las técnicas de aprendizaje automático, el aprendizaje profundo parece ser el más prometedor para una serie de aplicaciones (incluido el reconocimiento de voz o imagen). En 2003, Geoffrey Hinton (Universidad de Toronto), Yoshua Bengio (Universidad de Montreal) y Yann LeCun (Universidad de Nueva York) decidieron iniciar un programa de investigación para poner al día las redes neuronales. Los experimentos realizados simultáneamente en Microsoft, Google e IBM con la ayuda del laboratorio de Toronto de Hinton mostraron que este tipo de aprendizaje lograba reducir a la mitad las tasas de error en el reconocimiento de voz. Se lograron resultados similares por parte del equipo de reconocimiento de imágenes de Hinton.

De la noche a la mañana, una gran mayoría de equipos de investigación se volcaron hacia esta tecnología con beneficios indiscutibles. Este tipo de aprendizaje también ha permitido progresos considerable en el reconocimiento de texto, pero, según expertos como Yann LeCun, aún queda un largo camino por recorrer para producir sistemas de comprensión de texto. Los agentes conversacionales ilustran bien este desafío: nuestros teléfonos inteligentes ya saben cómo transcribir una instrucción, pero no pueden contextualizarla completamente ni analizar nuestras intenciones.

¿Cuándo se inventó la inteligencia artificial?

La inteligencia artificial se inventó en la década de 1950, con los primeros desarrollos y la creación del término por parte de John McCarthy del MIT.

¿Cuáles son las aplicaciones de la inteligencia artificial?

La inteligencia artificial tiene aplicaciones en diversos campos, como la medicina, la industria, los servicios financieros, la robótica, entre otros. Se utiliza para automatizar tareas, tomar decisiones basadas en datos, reconocimiento de voz e imagen, entre otras funciones.

¿Cuál es la diferencia entre una IA fuerte y una IA débil ?

Una IA fuerte se refiere a una inteligencia artificial que tiene la capacidad de contextualizar problemas especializados de manera totalmente autónoma, modelando el entorno en su conjunto. Una IA débil se refiere a una inteligencia artificial que es extremadamente eficiente en su campo de entrenamiento, pero no puede contextualizar problemas fuera de ese ámbito.

La inteligencia artificial ha recorrido un largo camino desde sus inicios en la década de 1950. Aunque todavía estamos lejos de alcanzar una IA fuerte que pueda igualar la inteligencia humana en todos los aspectos, los avances en el aprendizaje automático y el acceso a grandes cantidades de datos han impulsado el campo en la última década. La IA está siendo utilizada en una variedad de aplicaciones y está transformando la forma en que vivimos y trabajamos. A medida que la tecnología continúa avanzando, es emocionante pensar en las posibilidades futuras de la inteligencia artificial y cómo puede mejorar aún más nuestras vidas.

Si quieres conocer otras notas parecidas a La primera máquina con inteligencia artificial: historia y avances puedes visitar la categoría Inteligencia artificial.

Subir