¿Qué es un Acelerador de IA?

Un acelerador de IA son una clase de hardware que está diseñado, como sugiere el nombre, para acelerar los modelos de IA. 

Al aumentar el rendimiento de los algoritmos, los chips pueden mejorar los resultados en aplicaciones con muchos datos, como el procesamiento del lenguaje natural o la visión artificial.  

Sin embargo, a medida que los modelos de IA aumentan en sofisticación, también lo hace la cantidad de energía requerida para admitir el hardware que sustenta los sistemas algorítmicos. 

Definición de un Acelerador de IA

Un acelerador de IA es una máquina de cómputo paralelo de alto rendimiento que está específicamente diseñada para el procesamiento eficiente de cargas de trabajo de IA como redes neuronales.

Tradicionalmente, en el diseño de software, los informáticos se centraban en el desarrollo de enfoques algorítmicos que coincidían con problemas específicos y los implementaban en un lenguaje procedimental de alto nivel. Para aprovechar el hardware disponible, se podrían enhebrar algunos algoritmos; sin embargo, el paralelismo masivo fue difícil de lograr debido a las implicaciones de la Ley de Amdahl.

Gracias al big data y la conectividad de todo, ahora tenemos un nuevo paradigma:  diseño por optimización

De acuerdo con la metodología de diseño por optimización, los científicos de datos utilizan sistemas informáticos inherentemente paralelos, como las redes neuronales, para ingerir cantidades masivas de datos y capacitarse a sí mismos a través de la optimización iterativa.

Los caballos de batalla predominantes de la industria para la ejecución de software, las arquitecturas de conjuntos de instrucciones estandarizadas (ISA), no son adecuados para este enfoque. 

En cambio, han surgido aceleradores de IA para brindar la potencia de procesamiento y la eficiencia energética necesarias para habilitar nuestro mundo de computación de datos abundantes.

¿Cómo funciona un acelerador de IA?

Actualmente, hay dos espacios de aceleración de IA distintos: el centro de datos y el perímetro.

Los centros de datos, en particular los centros de datos a hiperescala, requieren arquitecturas informáticas escalables masivamente. Para este espacio, la industria de chips se está volviendo grande.

 Cerebras , por ejemplo, ha sido pionero en el Wafer-Scale Engine (WSE), el chip más grande jamás construido, para sistemas de aprendizaje profundo. 

image
El WSE-2 de Cerebras es el producto de silicio más grande disponible | Fuente: Cerebras

Al ofrecer más ancho de banda de cómputo, memoria y comunicación, el WSE puede respaldar la investigación de IA a velocidades y escalabilidad mucho más rápidas en comparación con las arquitecturas tradicionales.

El borde representa el otro extremo del espectro. Aquí, la eficiencia energética es clave y el espacio disponible es limitado, ya que la inteligencia se distribuye en el borde de la red en lugar de en una ubicación más centralizada. 

El acelerador de IA IP está integrado en dispositivos SoC de borde que, sin importar cuán pequeños sean, brindan los resultados casi instantáneos necesarios, por ejemplo, para programas interactivos que se ejecutan en teléfonos inteligentes o para robótica industrial.

Los diferentes tipos de aceleradores de IA de hardware

Si bien WSE es un enfoque para acelerar las aplicaciones de IA, existe una variedad de otros tipos de aceleradores de IA de hardware para aplicaciones que no requieren un chip grande. Ejemplos incluyen: 

TAMBIEN TE PUEDE INTERESAR:  Detectores de Vapeo: ¿Qué son y como funcionan?

Cada uno de estos son chips separados que se pueden combinar de decenas a cientos en sistemas más grandes para permitir el procesamiento de grandes redes neuronales. 

Las arquitecturas reconfigurables de grano grueso (CGRA, por sus siglas en inglés) están cobrando un impulso significativo en este espacio, ya que pueden ofrecer compensaciones atractivas entre rendimiento y eficiencia energética, por un lado, y flexibilidad para programar diferentes redes por el otro.

El departamento de investigación de IBM ha estado trabajando en nuevos diseños de chips que sean capaces de manejar algoritmos complejos sin aumentar su huella de carbono, es decir, sus emisiones totales de gases de efecto invernadero. 

Procesador Telum IBM
Procesador Telum IBM

El principal desafío es idear una tecnología que no requiera una energía exorbitante, pero sin renunciar a la potencia informática. 

La compañía ha diseñado lo que afirma ser el primer chip acelerador de IA del mundo que se basa en tecnología de siete nanómetros de alto rendimiento, al mismo tiempo que logra altos niveles de eficiencia energética.  

Se espera que el chip de cuatro núcleos, aún en etapa de investigación, sea capaz de admitir varios modelos de IA y de lograr una eficiencia energética de «vanguardia».  

El nuevo chip está altamente optimizado para entrenamientos de baja precisión. Es el primer chip de silicio que incorpora una técnica de precisión ultrabaja llamada formato híbrido FP8, una técnica de entrenamiento de ocho bits desarrollada por Big Blue, que preserva la precisión del modelo en aplicaciones de aprendizaje profundo, como la clasificación de imágenes o la detección de voz y objetos. . 

Equipado con una función de gestión de energía integrada, el chip acelerador puede maximizar su propio rendimiento, por ejemplo, ralentizando durante las fases de cálculo con un alto consumo de energía. 

El chip también tiene una alta utilización, con experimentos que muestran una utilización de más del 80 % para capacitación (aprender una nueva capacidad a partir de datos) y una utilización del 60 % para inferencia (aplicar una capacidad a nuevos datos), mucho más, según los investigadores de IBM, de lo normal. Utilizaciones de GPU que están por debajo del 30%. 

Esto se traduce, una vez más, en un mejor rendimiento de la aplicación y también es una parte clave de la ingeniería del chip para la eficiencia energética, según zdnet.com. 

Se espera que las aplicaciones incluyan modelos de entrenamiento profundo a gran escala en la nube que van desde servicios de IA de voz a texto hasta detección de fraude en transacciones financieras.  

Las aplicaciones en el borde también podrían encontrar un uso para la nueva tecnología, con vehículos autónomos, cámaras de seguridad y teléfonos móviles, todos potencialmente beneficiándose de chips de IA de alto rendimiento que consumen menos energía. 

Felipe Argüello
Felipe Argüello

Felipe Argüello es el fundador de Infoteknico. Ingeniero con más de 30 años de experiencia trabajando en América Latina, Estados Unidos y Europa en las áreas de ingeniería, consulta técnica, proyectos, ventas y entrenamiento en soluciones de alta tecnología y seguridad electrónica.

Artículos: 867

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *