MuseV:虚拟人视频完整解决方案 保持角色一致、不限视频长度
MuseV是一个基于扩散的虚拟人类视频生成框架,支持无限长度生成,使用了一种新颖的视觉条件并行去噪方案。已经发布了在人类数据集上训练的虚拟人类视频生成模型。开发团队表示,未来将发布MuseTalk,一个实时高质量的嘴型同步模型,可以与MuseV一起作为完整的虚拟人类生成解决方案。
MuseV官网体验入口 虚拟人AI视频生成软件使用地址
MuseV是一个基于扩散模型的虚拟人视频生成框架,支持无限长度视频生成,采用了新颖的视觉条件并行去噪方案。它提供了预训练的虚拟人视频生成模型,支持Image2Video、Text2Image2Video、Video2Video等功能,兼容StableDiffusion生态系统,包括基础模型、LoRA、ControlNet等。要了解更多有关MuseV的信息,欢迎访问官方网站。
Make-Your-Anchor:输入1分钟视频训练能生成带手部动作的虚拟人
一项名为Make-Your-Anchor的研究成果即将在CVPR2024上展示。该项目输入1分钟视频进行训练,可以合成带手部动作的虚拟人视频,支持嘴型同步,支持换脸。这一创新的框架为头像生成领域带来了新的可能性和前景。
Spiritme AI:手机拍5分钟视频即可克隆一个虚拟的你
SpiritmeAI是一个类似Heygen的工具,可以帮助你克隆虚拟形象。使用iPhone拍摄一段大约5分钟的视频,即可捕捉你的外貌、动作和可能的表情,然后克隆一个虚拟的你!最令人印象深刻的是,它还可以将PPT、PDF文件直接转换成解说视频,只需两次点击操作即可。多语言支持:用户可以生成多种语言的视频。
阿里推虚拟试穿技术Outfit Anyone 加上Animate Anyone轻松拿捏换装视频
OutfitAnyone是一项由阿里巴巴集团智能计算研究所推动的高质量虚拟试穿技术。该技术通过采用双流条件扩散模型,能够独立处理模特和服装数据,然后在融合网络中将服装细节嵌入到模特的特征表示中,从实现更逼真、高保真度的虚拟试穿效果。模型和服装图像主要来自互联网和公共数据集,所有图像和品牌均为其各自所有者的财产。