FramePack 开源项目教程

FramePack Lets make video diffusion practical! FramePack 项目地址: https://gitcode.com/gh_mirrors/fr/FramePack

1. 项目介绍

FramePack 是一个用于视频生成的神经网络结构,它通过预测下一帧(或下一帧段)来逐步生成视频。该模型的特点是将输入的上下文压缩到固定长度,使得生成的工作负载不会随着视频长度的增加而增加。FramePack 能够在笔记本电脑的 GPU 上处理大量帧,即使是 13B 大小的模型也能正常运行。此外,FramePack 可以使用比图像扩散训练更大的批量大小进行训练。

2. 项目快速启动

环境要求

  • GPU:支持 fp16 和 bf16 的 Nvidia RTX 30XX、40XX、50XX 系列。GTX 10XX/20XX 系列未经测试。
  • 操作系统:Linux 或 Windows。
  • GPU 内存:至少 6GB。生成 1 分钟(1800 帧)30fps 的视频,建议使用至少 6GB GPU 内存。

安装

Windows

一键安装包即将发布,请明天再回来查看。

Linux

推荐使用独立的 Python 3.10 环境。

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
pip install -r requirements.txt

启动 GUI:

python demo_gradio.py

注意,该软件支持 PyTorch attention、xformers、flash-attn、sage-attention。默认情况下,它将使用 PyTorch attention。如果你知道如何操作,可以安装其他注意力内核。

例如,安装 sage-attention(Linux):

pip install sageattention==1.0.6

但是,我们强烈建议首先不使用 sage-attention,因为它会影响结果,尽管影响很小。

3. 应用案例和最佳实践

GUI 使用

  • 在左侧上传图像并编写提示。
  • 在右侧将显示生成的视频和潜在预览。
  • 由于这是一个下一帧段预测模型,视频会逐渐变长。
  • 你将看到每个段的进度条和下一段的潜在预览。
  • 注意,初始进度可能比后来的扩散慢,因为设备可能需要预热。

敏感性测试

在尝试自己的输入之前,我们强烈建议进行敏感性测试,以找出硬件或软件是否出现问题。下一帧段预测模型对噪声和硬件的细微差异非常敏感。通常,不同设备上的人们会得到略微不同的结果,但结果应该看起来大体相似。在某些情况下,如果可能,你会得到完全相同的结果。

示例

  • 图片到 5 秒视频:上传图片,复制提示,设置参数(所有默认参数,关闭 teacache),生成结果为 0.mp4。
  • 图片到 1 分钟视频:设置视频长度为 60 秒,如果一切正常,最终会得到类似的结果。

提示指南

  • 许多用户会询问如何编写更好的提示。以下是一个 ChatGPT 模板,我个人经常用来获取提示。
  • 当用户发送图片时,以简短、动作焦点的方式描述视觉动作。例如:“女孩优雅地跳舞,动作清晰,充满魅力。”

4. 典型生态项目

由于 FramePack 是一个专注于视频生成的项目,其生态项目可能包括:

  • 视频编辑和后处理工具。
  • 与其他视频生成模型的集成。
  • 用于培训 FramePack 的数据集和工具。
  • 基于 FramePack 的定制应用程序,如动画制作或游戏开发。

FramePack Lets make video diffusion practical! FramePack 项目地址: https://gitcode.com/gh_mirrors/fr/FramePack

Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐