Intel, Google, Microsoft e Meta, junto com outros gigantes da tecnologia, formaram um novo grupo industrial denominado UALink Promoter Group. Este grupo será responsável por guiar o desenvolvimento dos componentes que conectam os chips aceleradores de IA nos centros de dados. Não é empolgante ver como as grandes mentes da tecnologia unem forças?
Anunciado na última quinta-feira, o UALink Promoter Group também inclui empresas como AMD, Hewlett Packard Enterprise, Broadcom e Cisco. Juntos, estão propondo um novo padrão industrial para conectar os aceleradores de IA que se encontram em um número crescente de servidores. Mas o que são exatamente esses aceleradores de IA? Basicamente, são chips que podem ser desde GPUs até soluções projetadas sob medida para acelerar o treinamento, ajuste e execução de modelos de IA.
Forrest Norrod, gerente geral de soluções de centros de dados na AMD, destacou a necessidade de um padrão aberto que permita a múltiplas empresas agregar valor ao ecossistema geral de IA. Segundo suas palavras, “a indústria precisa de um padrão que permita a inovação em um ritmo rápido, sem estar limitada por nenhuma empresa em particular”. Essa declaração ressoa na urgência de avançar rapidamente em um campo tão dinâmico como o da inteligência artificial.
O grupo planeja criar um consórcio, o UALink Consortium, no terceiro trimestre do ano para supervisionar o desenvolvimento da especificação UALink. Além disso, a primeira versão desta especificação, UALink 1.0, estará disponível ao mesmo tempo para as empresas que se unirem ao consórcio. Espera-se que os primeiros produtos UALink cheguem ao mercado nos próximos anos, marcando um marco significativo na evolução da tecnologia de aceleradores de IA.
O Futuro dos Aceleradores de IA: O que é o UALink 1.0 e Por Que é Importante?
O padrão UALink 1.0 é a proposta inicial do grupo promotor UALink para conectar até 1024 aceleradores de IA (principalmente GPUs) em um único “pod” de computação. Mas o que isso significa exatamente? Um pod se refere a um ou mais racks dentro de um servidor, e a inovação aqui reside na capacidade do UALink 1.0 de permitir cargas e armazenamentos diretos entre a memória conectada aos aceleradores de IA, o que, em termos práticos, melhora a velocidade e reduz a latência de transferência de dados comparado às especificações de interconexão existentes.
O padrão UALink 1.0 se baseia em padrões abertos como o Infinity Fabric da AMD, o que é um avanço significativo para a indústria. A razão é que esses padrões abertos permitem uma interoperabilidade mais ampla e uma adoção mais rápida em diversas plataformas tecnológicas, fomentando uma competição saudável e a inovação constante.
O grupo promotor anunciou que no quarto trimestre de 2024 lançará uma atualização, o UALink 1.1, que promete uma maior capacidade de largura de banda. Este desenvolvimento é crucial, pois os principais beneficiários do UALink parecem ser empresas como Microsoft, Meta e Google, que investiram bilhões em GPUs da Nvidia para impulsionar suas nuvens e treinar seus modelos de IA. Com o UALink, essas empresas buscam reduzir sua dependência de um único fornecedor dominante no ecossistema de hardware de IA.
Vale destacar que a Nvidia, o maior produtor de aceleradores de IA, não está participando deste grupo. Isso se deve ao fato de que a Nvidia já oferece sua própria tecnologia de interconexão proprietária para vincular GPUs dentro de um servidor de centro de dados e provavelmente não está interessada em apoiar uma especificação baseada em tecnologias rivais.