Skip to content

Latest commit

 

History

History
83 lines (54 loc) · 3.92 KB

README-cn.md

File metadata and controls

83 lines (54 loc) · 3.92 KB

StreamV2V

英文 | 中文 | 日文

Looking Backward: Streaming Video-to-Video Translation with Feature Banks
梁丰, Akio Kodaira, 徐晨丰, Masayoshi Tomizuka, Kurt Keutzer, Diana Marculescu
The International Conference on Learning Representations (ICLR), 2025

arXiv 项目页面 Huggingface演示

亮点

我们的StreamV2V可以在一块RTX 4090 GPU上实时执行视频到视频的翻译。查看视频亲自尝试

Video

在功能方面,我们的StreamV2V支持面部交换(例如:变成埃隆·马斯克或威尔·史密斯)和视频风格化(例如:变成黏土动画或涂鸦艺术)。查看视频复现结果

Video

尽管StreamV2V是为vid2vid任务设计的,但它可以无缝集成到txt2img应用程序中。与每图像的StreamDiffusion相比,StreamV2V 连续地从文本生成图像,提供了更加平滑的过渡。查看视频亲自试试!

Video

安装

请查看安装指南

入门

请查看开始使用说明

本地GPU上的实时摄像头演示

请查看带摄像头的演示指南

连续的文生图

请查看连续的文生图的演示指南.

许可证

StreamV2V根据德克萨斯大学奥斯汀分校研究许可证进行许可。

致谢

StreamV2V在很大程度上依赖于开源社区。我们的代码是从StreamDiffusionLCM-LORA 复制并适应的。除了基础的SD 1.5 模型外,我们还使用了CIVITAI 的多种LORAs。

引用 StreamV2V 🙏

如果您在研究中使用StreamV2V或希望引用论文中发布的基准结果,请使用以下BibTeX条目。

@article{liang2024looking,
  title={Looking Backward: Streaming Video-to-Video Translation with Feature Banks},
  author={Liang, Feng and Kodaira, Akio and Xu, Chenfeng and Tomizuka, Masayoshi and Keutzer, Kurt and Marculescu, Diana},
  journal={arXiv preprint arXiv:2405.15757},
  year={2024}
}

@article{kodaira2023streamdiffusion,
  title={StreamDiffusion: A Pipeline-level Solution for Real-time Interactive Generation},
  author={Kodaira, Akio and Xu, Chenfeng and Hazama, Toshiki and Yoshimoto, Takanori and Ohno, Kohei and Mitsuhori, Shogo and Sugano, Soichi and Cho, Hanying and Liu, Zhijian and Keutzer, Kurt},
  journal={arXiv preprint arXiv:2312.12491},
  year={2023}
}

代码贡献者