Vídeos gerados pela IA agora são possíveis com GPUs de jogos com apenas 6 GB de VRAM

Lvmin Zhang e GirubEm colaboração com Maneesh Agrawala na Universidade de Stanford, apresentou o Framepack nesta semana. O Framepack oferece uma implementação prática da difusão de vídeo usando o contexto temporal de comprimento fixo para um processamento mais eficiente, permitindo vídeos de maior e maior qualidade. Um modelo de parâmetros de 13 bilhões criado usando a arquitetura Framepack pode gerar um clipe de 60 segundos com apenas 6 GB de memória de vídeo.

O Framepack é uma arquitetura de rede neural que usa técnicas de otimização de vários estágios para permitir a geração local de vídeo da IA. No momento da redação deste artigo, diz-se que a GUI da Framepack administra um modelo personalizado de Hunyuan sob o capô, embora o artigo de pesquisa menciona que os modelos pré-treinados existentes podem ser ajustados usando o Framepack.

Source link

Artigos Relacionados

Botão Voltar ao Topo