Los aceleradores de inteligencia artificial (IA) se han vuelto cada vez más importantes en el campo de la tecnología. Con el aumento de las cargas de trabajo de aprendizaje profundo y de la IA en general, se ha vuelto necesario contar con hardware especializado que pueda acelerar estos procesos y mejorar la eficiencia y el rendimiento.
¿Por qué necesitamos aceleradores de IA?
Existen actualmente dos espacios distintos de aceleradores de IA: el centro de datos y el borde.
Los centros de datos, especialmente los de escala hipermasiva, requieren arquitecturas de cómputo altamente escalables. Para este espacio, la industria de chips está apostando por el tamaño. Por ejemplo, Cerebras ha desarrollado el Wafer-Scale Engine (WSE), el chip más grande jamás construido para sistemas de aprendizaje profundo. Al proporcionar más capacidad de cómputo, memoria y ancho de banda de comunicación, el WSE puede respaldar la investigación de IA a velocidades y escalabilidad mucho más rápidas en comparación con las arquitecturas tradicionales.
El borde representa el otro extremo del espectro. Aquí, la eficiencia energética es clave y el espacio es limitado, ya que la inteligencia se distribuye en el borde de la red en lugar de una ubicación más centralizada. Los aceleradores de IA se integran en los dispositivos SoC del borde que, por pequeños que sean, ofrecen los resultados casi instantáneos necesarios para programas interactivos que se ejecutan en teléfonos inteligentes o para robótica industrial.
¿Qué son los aceleradores de IA/ML?
Los sistemas informáticos han complementado con frecuencia la CPU con aceleradores especializados para tareas específicas, conocidos como coprocesadores. Algunos ejemplos notables de unidades de hardware específicas de la aplicación incluyen tarjetas de video para gráficos, tarjetas de sonido, unidades de procesamiento de gráficos y procesadores de señal digital. A medida que las cargas de trabajo de aprendizaje profundo e inteligencia artificial ganaron protagonismo en la década de 2010, se desarrollaron unidades de hardware especializadas o se adaptaron productos existentes para acelerar estas tareas.
Los intentos iniciales incluyeron circuitos analógicos para calcular funciones neuronales. Más tarde, se desarrollaron chips completamente digitales. Ya en 1993, se utilizaron procesadores de señal digital como aceleradores de redes neuronales para acelerar el software de reconocimiento óptico de caracteres. También hubo intentos de crear sistemas paralelos de alto rendimiento para estaciones de trabajo destinadas a diversas aplicaciones, incluidas simulaciones de redes neuronales.
En la década de 1990, también se exploraron aceleradores basados en FPGA tanto para inferencia como para entrenamiento. En 2014, se propuso DianNao para acelerar especialmente las redes neuronales profundas. Los teléfonos inteligentes comenzaron a incorporar aceleradores de IA a partir del Qualcomm Snapdragon 820 en 201
Uso de GPU
Las unidades de procesamiento gráfico (GPU) son hardware especializado para la manipulación de imágenes y el cálculo de propiedades locales de imágenes. La base matemática de las redes neuronales y la manipulación de imágenes son tareas paralelas embarazosamente similares que involucran matrices, lo que ha llevado a un aumento en el uso de GPU para tareas de aprendizaje automático.
Las GPU continúan utilizándose en aplicaciones de IA a gran escala. Por ejemplo, Summit, un supercomputador de IBM para el Oak Ridge National Laboratory, contiene 27,648 tarjetas Nvidia Tesla V100, que se pueden utilizar para acelerar algoritmos de aprendizaje profundo.
Uso de FPGAs
Los marcos de aprendizaje profundo aún están evolucionando, lo que dificulta el diseño de hardware personalizado. Los dispositivos reconfigurables, como los FPGA, facilitan la evolución de hardware, marcos y software de manera conjunta.
En Microsoft, se han utilizado chips FPGA para acelerar la inferencia en servicios de aprendizaje profundo en tiempo real.
La aparición de ASICs dedicados a aceleradores de IA
Aunque las GPU y los FPGA funcionan mucho mejor que las CPU para tareas relacionadas con la IA, se puede obtener una eficiencia aún mayor mediante un diseño más específico utilizando un circuito integrado de aplicación específica (ASIC). Estos aceleradores utilizan estrategias como el uso optimizado de la memoria y la aritmética de menor precisión para acelerar el cálculo y aumentar el rendimiento de la computación. Empresas como Google, Qualcomm, Amazon, Apple, Facebook, AMD y Samsung están diseñando sus propios ASIC de IA.
Los aceleradores de inteligencia artificial son componentes clave en el campo de la tecnología actual. Permiten un mayor rendimiento, eficiencia energética y escalabilidad en las cargas de trabajo de aprendizaje profundo y de inteligencia artificial. Con el avance de la tecnología, es probable que veamos más desarrollos y mejoras en los aceleradores de IA en el futuro.
Si quieres conocer otras notas parecidas a Aceleradores de ia: rendimiento y eficiencia en tecnología puedes visitar la categoría Inteligencia.