Intel, Google, Microsoft y Meta, junto con otros gigantes de la tecnología, han formado un nuevo grupo industrial denominado UALink Promoter Group. Este grupo se encargará de guiar el desarrollo de los componentes que conectan los chips aceleradores de IA en los centros de datos. ¿No es emocionante ver cómo las grandes mentes de la tecnología unen fuerzas?
Anunciado el jueves pasado, el UALink Promoter Group también incluye a empresas como AMD, Hewlett Packard Enterprise, Broadcom y Cisco. Juntos, están proponiendo un nuevo estándar industrial para conectar los aceleradores de IA que se encuentran en un número creciente de servidores. Pero, ¿qué son exactamente estos aceleradores de IA? Básicamente, son chips que pueden ser desde GPUs hasta soluciones diseñadas a medida para acelerar el entrenamiento, ajuste y ejecución de modelos de IA.
Forrest Norrod, gerente general de soluciones de centros de datos en AMD, destacó la necesidad de un estándar abierto que permita a múltiples compañías agregar valor al ecosistema general de IA. Según sus palabras, “la industria necesita un estándar que permita la innovación a un ritmo rápido, sin estar limitado por ninguna compañía en particular”. Esta declaración resuena en la urgencia de avanzar rápidamente en un campo tan dinámico como el de la inteligencia artificial.
El grupo planea crear un consorcio, el UALink Consortium, en el tercer trimestre del año para supervisar el desarrollo de la especificación UALink. Además, la primera versión de esta especificación, UALink 1.0, estará disponible al mismo tiempo para las empresas que se unan al consorcio. Se espera que los primeros productos UALink lleguen al mercado en los próximos años, marcando un hito significativo en la evolución de la tecnología de aceleradores de IA.
El Futuro de los Aceleradores de IA: ¿Qué es UALink 1.0 y por Qué es Importante?
El estándar UALink 1.0 es la propuesta inicial del grupo promotor UALink para conectar hasta 1024 aceleradores de IA (principalmente GPUs) en un solo «pod» de computación. Pero, ¿qué significa exactamente esto? Un pod se refiere a uno o varios racks dentro de un servidor, y la innovación aquí radica en la capacidad de UALink 1.0 para permitir cargas y almacenamientos directos entre la memoria conectada a los aceleradores de IA, lo que en términos prácticos, mejora la velocidad y reduce la latencia de transferencia de datos comparado con las especificaciones de interconexión existentes.
El estándar UALink 1.0 se basa en estándares abiertos como el Infinity Fabric de AMD, lo cual es un avance significativo para la industria. La razón es que estos estándares abiertos permiten una interoperabilidad más amplia y una adopción más rápida en diversas plataformas tecnológicas, fomentando una competencia sana y la innovación constante.
El grupo promotor ha anunciado que en el cuarto trimestre de 2024 lanzará una actualización, el UALink 1.1, que promete una mayor capacidad de ancho de banda. Este desarrollo es crucial, ya que los principales beneficiarios de UALink parecen ser empresas como Microsoft, Meta y Google, las cuales han invertido miles de millones en GPUs de Nvidia para impulsar sus nubes y entrenar sus modelos de IA. Con UALink, estas empresas buscan reducir su dependencia de un único proveedor dominante en el ecosistema de hardware de IA.
Cabe destacar que Nvidia, el mayor productor de aceleradores de IA, no está participando en este grupo. Esto se debe a que Nvidia ya ofrece su propia tecnología de interconexión propietaria para vincular GPUs dentro de un servidor de centro de datos, y probablemente no está interesada en apoyar una especificación basada en tecnologías rivales.