No evento GTC da NVIDIA, Pat Gelsinger reiterou que Jensen teve sorte com a IA, a Intel errou o barco com Larrabee


Na GTC 2025, o ex-CEO da Intel, Pat Gelsinger, reiterou sua alegação muitas vezes repetida de que o CEO da Nvidia, Jensen Huang, “teve sorte” com a revolução da IA, mas explicou sua lógica mais aprofundada.
Como as GPUs adotaram o centro do palco na IA Innovation, a Nvidia é agora uma das empresas mais valiosas do mundo, enquanto a Intel está lutando. Mas nem sempre foi assim. Quinze a vinte anos atrás, as CPUs da Intel eram a força dominante na computação, enquanto lidavam com todas as cargas de trabalho. Durante esse período, a Intel perdeu suas oportunidades de IA e HPC com Larrabee, um projeto que tentou construir uma GPU usando a CPU ISA x86. Por outro lado, a NVIDIA apostou nas GPUs de raça pura, disse Pat Gelsinger, ex -CTO e CEO da Intel, enquanto falava no GTC 2025 da NVIDIA.
“A CPU era o rei da colina (em meados dos anos 2000), e aplaudo Jensen por sua tenacidade de apenas dizer: ‘Não, não estou tentando construir um desses; estou tentando entregar a carga de trabalho que começa em gráficos”, disse Gelsinger. “Sabe, tornou -se essa visão mais ampla. E então ele teve sorte com a IA, e uma vez eu estava debatendo com ele, ele disse: ‘Não, tive muita sorte com a carga de trabalho da AI porque apenas exigia esse tipo de arquitetura.’ É aí que está o centro do desenvolvimento de aplicativos (no momento).
Uma das razões pelas quais Larrabee foi cancelado como GPU em 2009 foi que ela não era competitiva como processador gráfico contra as soluções gráficas da AMD e da NVIDIA na época. Até certo ponto, isso se deveu ao desejo da Intel de Larrabee apresentar a programação final, o que levou à falta de peças de GPU de função fixa cruciais, como unidades de operações de raster. Isso afetou o desempenho e aumentou a complexidade do desenvolvimento de software.
“Eu tinha um projeto que era bem conhecido na indústria chamado Larrabee e que estava tentando preencher a programação da CPU com uma arquitetura orientada a transferência (de uma GPU), e acho que a Intel permaneceu nesse caminho, você sabe, o futuro poderia ter sido diferente” disse Gelsinger durante um webcast. “Dou a Jensen muito crédito (AS), ele permaneceu fiel a essa computação ou aceleração (visão)”.
Ao contrário das GPUs da AMD e da NVIDIA, que usam arquiteturas proprietárias de conjunto de instruções (ISAs), o Larrabee da Intel usou o X86 ISA com extensões específicas de Larrabee. Isso proporcionou uma vantagem para cargas de trabalho de computação em paralelo de uso geral, mas foi uma desvantagem para aplicativos gráficos. Como resultado, Larrabee foi reintroduzido como o processador Xeon Phi, com o objetivo de supercompugar cargas de trabalho em 2010. No entanto, ele ganhou pouca tração à medida que as arquiteturas tradicionais de GPU obtiveram recursos de computação de uso geral por meio da estrutura do CUDA, bem como do APISTCUTEPUTO APISPUTO, que foram mais fáceis à escala, e do Apencan. Depois que o Xeon Phi ‘Knights Mill’ não atendeu às expectativas, a Intel abandonou o projeto Xeon Phi em favor das GPUs do Data Center para HPC e ASICs especializados para a IA entre 2018 e 2019.
Em grande parte, Larrabee e seus sucessores na linha Xeon Phi falharam porque foram baseados em uma CPU ISA que não escalou bem para gráficos, IA ou HPC. O fracasso de Larrabee foi acionado em meados dos anos 2000, quando as CPUs ainda eram dominantes, e os protagonistas técnicos da Intel pensaram que o x86 era um caminho a percorrer. Avanço rápido de hoje, e as tentativas da Intel de adotar um design de GPU mais convencional para a IA falharam amplamente, com a empresa cancelando recentemente suas GPUs Falcon Shores para data centers. Em vez disso, a empresa está fixando suas esperanças em suas margens da Jaguar de última geração que não estão previstas para lançamento até o próximo ano.



