开源Open-Sora大更新:可生成16秒,720P高清视频
国内著名大模型开源公司潞晨科技,对其开源文生视频模型Open-Sora进行了大更新,现在可生成16秒,分辨率高达720P的视频。同时具备可以处理任何宽高比的文本到图像、文本到视频、图像到视频、视频到视频和无限长视频的多模态功能。感兴趣的小伙伴们现在可以利用这些资源,结合技术报告和代码高效地处理和优化自己的数据集。
Open-Sora开源项目更新:可生成长达16秒、720P高清视频
潞晨科技旗下文生视频模型开源项目Open-Sora近日进行了重大更新,新版本可以生成16秒时长、720P高清视频。在本次更新中,团队对1.0版本的STDiT架构进行了关键性改进,提高了模型的训练稳定性和整体性能。Open-Sora的更新版本在模型稳定性、训练效率和功能扩展等方面都取得了显著进展,为用户提供了更加强大和多样化的视频生成能力。
中国首个Sora级大模型Vidu:文本生成16秒,1080p高清视频
4月27日,在2024中关村论坛-未来人工智能先锋论坛上,清华大学联合生数科技正式发布了,中国首个长时间、高一致性、高动态性视频大模型——Vidu。Vidu采用了原创的Diffusion与Transformer融合的架构U-ViT,支持文本生成长达16秒、分辨率高达1080P的高清视频内容。生数科技致力打造世界领先的多模态大模型,融合文本、图像、视频、3D等多模态信息,探索生成式AI在艺术设计、游戏�
OpenAI首个视频生成模型发布 一句话生成1分钟高清视频
OpenAI日前发布首款文生视频模型Sora模型,完美继承DALLE3的画质和遵循指令能力其支持用户输入文本描述,生成一段长达1分钟的高清流畅视频。该模型可以深度模拟真实物理世界,标志着人工智能在理解真实世界场景,并与之互动的能力方面实现了重大飞跃。目前已有一些视觉艺术家、设计师和电影制作人获得了Sora访问权限,他们也已开始不断Po出新的作品,为人们展示AI生成视频的无限创意可能。
Meta 新模型:如果我每14秒生成一个高清视频,好莱坞的各位要如何应对|「变压器」
利用人工智能来合成视频一直是该领域的难题,因为其中最关键的一环——映射与合成,缺乏优秀的模型算法,只能利用卷积神经网络和生成对抗网络来不断提取特征、生成、判断,直至最后结果。比如此前曾大火的Deepfake技术,俗称人工智能换脸,生成一个短短几秒的“换头”视频也需要10分钟左右的时间。好莱坞的好日子好像又变短了一些。