Ualink tem o NVLink da NVIDIA na mira – as especificações finais suportam até 1.024 GPUs com 200 gt/s de largura de banda

Um dos principais objetivos do UALink é permitir um ecossistema de conectividade competitivo para os aceleradores de IA que rivalizam com a tecnologia estabelecida da NVIDIA, que permite que a empresa verde construa soluções a-i-i-i-otimizadas, como o Blackwell NVL72. Com o surgimento do UALink 1.0, empresas como AMD, Broadcom, Google e Intel também poderão criar soluções semelhantes, usando tecnologias padrão do setor, em vez das soluções proprietárias da Nvidia, o que significa custos mais baixos.
O Ultra Accelerator Link Consortium publicou na terça -feira oficialmente a especificação final do UALink 1.0, o que significa que os membros do grupo agora podem prosseguir com fitas de chips reais que suportam a nova tecnologia. A nova tecnologia de interconexão tem como alvo os aceleradores de IA e HPC e é apoiada por um amplo conjunto de players do setor – incluindo AMD, Apple, Broadcom e Intel. Ele promete se tornar o padrão de fato para conectar esse hardware.
A especificação do UALink 1.0 define uma interconexão de alta velocidade e baixa latência para os aceleradores, suportando uma taxa de dados bidirecional máxima de 200 gt/s por pista com sinalização a 212,5 GT/s para acomodar a correção de erro e codificação de erro avançado. Os ualinks podem ser configurados como x1, x2 ou x4, com um link de quatro faixas atingindo até 800 gt/s nas direções de transmissão e recebimento.
Um sistema Ualink suporta até 1.024 aceleradores (GPUs ou outros) conectados através de comutadores Ualink que atribuem uma porta por acelerador e um identificador exclusivo de 10 bits para roteamento preciso. Os comprimentos dos cabos do UALink são otimizados para <4 metros, permitindo uma latência de viagem de µs com carga útil de 64b/640b. Os links suportam o desempenho determinístico de um a quatro racks.
A pilha do protocolo Ualink inclui quatro camadas otimizadas para hardware: físico, link de dados, transação e protocolo. A camada física usa componentes Ethernet padrão (por exemplo, 200GBase-KR1/CR1) e inclui modificações para latência reduzida com FEC. Os pacotes de 64 bytes da camada de link de dados da camada de transação em unidades de 640 bytes, aplicando o CRC e a lógica opcional de repetição. Essa camada também lida com mensagens entre dispositivos e suporta a comunicação de firmware no estilo UART.
A camada de transação implementa o endereçamento compactado, simplificando a transferência de dados com eficiência de protocolo de até 95% sob cargas de trabalho reais. Ele também permite operações de memória direta, como transações de leitura, gravação e atômico entre aceleradores, preservando a ordem nos espaços de memória local e remoto.
Como é destinado a data centers modernos, o protocolo Ualink suporta recursos de segurança e gerenciamento integrados. Por exemplo, o UALinkSEC fornece criptografia e autenticação no nível de hardware de todo o tráfego, protegendo contra violação física e apoiando a computação confidencial por meio de ambientes de execução confiáveis controlados por inquilinos (como AMD SEV, ARM CCA e Intel TDX). A especificação permite o particionamento virtual do POD, onde grupos de aceleradores são isolados em um único pod por configuração no nível do comutador para permitir cargas de trabalho multi-inquilinos simultâneas em uma infraestrutura compartilhada.
As vagens do UALink serão gerenciadas por meio de software de controle dedicado e agentes de firmware usando interfaces padrão como PCIE e Ethernet. A capacidade de gerenciamento total é suportada através de APIs REST, telemetria, controle da carga de trabalho e isolamento de falhas.
“Com o lançamento da especificação Ualink 200G 1.0, as empresas membros do consórcio do Ualink estão construindo ativamente um ecossistema aberto para a conectividade do acelerador de expansão”, disse Peter Onufryk, presidente do consórcio da Ualink. “Estamos empolgados em testemunhar a variedade de soluções que em breve entrarão no mercado e permitirão futuras aplicações de IA”.
Atualmente, a NVIDIA domina no mercado de acelerador de IA, graças ao seu ecossistema robusto e soluções de expansão. Atualmente, está enviando racks Blackwell NVL72 que usam o NVLink para conectar até 72 GPUs em um único rack, com vagens entre rack, permitindo até 576 GPUs Blackwell B200 em um único pod. Com sua próxima plataforma Vera Rubin no próximo ano, a Nvidia pretende escalar até 144 GPUs em um único rack, enquanto Rubin Ultra em 2027 será escalado até 576 GPUs em um único rack.