Deepseek pode ser um multiplicador de força para empresas de chip AI menores

Deepseek abalou o ecossistema de AI liderado pelos EUA com seu mais recente modelo, raspando centenas de bilhões em líder de chip Nvidia’s Cap. Enquanto os líderes do setor lidam com as consequências, as empresas de IA menores vêem uma oportunidade de escalar com a startup chinesa.

Várias empresas relacionadas à IA disseram à CNBC que o emergência de Deepseek é uma oportunidade “massiva” para elas, em vez de uma ameaça.

“Os desenvolvedores estão muito interessados ​​em substituir os modelos caros e fechados da OpenAI por modelos de código aberto como Deepseek R1 …”, disse Andrew Feldman, CEO da Systems Cerebras de startup de chips de inteligência artificial.

A empresa compete com as unidades de processamento gráfico da Nvidia e oferece serviços baseados em nuvem por meio de seus próprios clusters de computação. Feldman disse que a libertação do modelo R1 gerou um dos maiores picos de todos os tempos da Cerebras em demanda por seus serviços.

“O R1 mostra que o crescimento (do mercado de IA) não será dominado por uma única empresa-os motos de hardware e software não existem para modelos de código aberto”, acrescentou Feldman.

Código aberto refere -se ao software no qual o código -fonte é disponibilizado gratuitamente na Web para obter possíveis modificações e redistribuição. Os modelos da Deepseek são de código aberto, ao contrário dos concorrentes como o OpenAI.

A Deepseek também afirma que seu modelo de raciocínio R1 rivaliza com a melhor tecnologia americana, apesar de correr a custos mais baixos e ter sido treinado sem unidades de processamento gráfico de ponta, embora os observadores e concorrentes do setor tenham questionado essas afirmações.

“Como nos mercados de PC e da Internet, os preços da queda ajudam a alimentar a adoção global. O mercado de IA está em um caminho de crescimento secular semelhante”, disse Feldman.

Chips de inferência

A Deepseek pode aumentar a adoção de novas tecnologias de chip, acelerando o ciclo da IA ​​desde o treinamento até a fase de “inferência”, disseram startups de chip e especialistas do setor.

A inferência refere -se ao ato de usar e aplicar a IA para fazer previsões ou decisões com base em novas informações, em vez da construção ou treinamento do modelo.

“Para simplificar, o treinamento de IA é sobre a construção de uma ferramenta ou algoritmo, enquanto a inferência é realmente implantar essa ferramenta para uso em aplicações reais”, disse Phelix Lee, analista de ações da Morningstar, com foco em semicondutores.

Enquanto a Nvidia possui uma posição dominante nas GPUs usadas para o treinamento de IA, muitos concorrentes vêem espaço para expansão no segmento “inferência”, onde eles prometem maior eficiência por custos mais baixos.

O treinamento de IA é muito intensivo em computação, mas a inferência pode funcionar com chips menos poderosos que são programados para executar uma gama mais estreita de tarefas, acrescentou Lee.

Paradoxo de Jevon

Deepseek estimulará a nova inovação na IA, diz Groq COO

Esse padrão explica o paradoxo de Jevon, uma teoria na qual as reduções de custos em uma nova tecnologia impulsionam a demanda.

A empresa de serviços financeiros e investimentos Wedbush disse em uma nota de pesquisa na semana passada que continua esperando o uso da IA ​​nos consumidores empresariais e de varejo em todo o mundo para impulsionar a demanda.

Falando com o “Fast Money” da CNBC na semana passada, Sunny Madra, COO da Groq, que desenvolve chips para inferência de IA, sugeriu que, à medida que a demanda geral por IA crescer, jogadores menores terão mais espaço para crescer.

“Como o mundo precisará de mais tokens (uma unidade de dados que um modelo de IA processos) a Nvidia não pode fornecer chips suficientes para todos, por isso oferece oportunidades para vendermos no mercado ainda mais agressivamente”, disse Madra.

Source link

Artigos Relacionados

Botão Voltar ao Topo