199元 《王者荣耀》“四大美女”旗袍手办开售:3D打印 高精模具超逼真
今日,《王者荣耀》MyethosGift织梦系列创意手办正式开启预售,单个售价199元,预计2024年7月底发货。手办以旗袍为主题,以中国古代四大美女:貂蝉、西施、王昭君、杨玉环为灵感制作。图源:Myethos微信公众号资料显示,Myethos是2103年成立的中国手办品牌,业务内容以手办设计制作生产为核心。
DiffHuman官网体验入口 3D人体建模软件使用方法教程指南
DiffHuman是一种概率性的光度逼真的3D人体重建方法。它可以从单张RGB图像预测一个3D人体重建的概率分布,并通过迭代降噪采样多个细节丰富、色彩鲜明的3D人体模型。要获取更多详细信息并开始使用DiffHuman,请访问DiffHuman官方网站。
Stable Video 3D官网体验入口 AI 3D生成工具使用方法教程说明
StableVideo3D是StabilityAI推出的新模型,在3D技术领域取得了显著进步。与之前发布的StableZero123相比,StableVideo3D提供了大幅改进的质量和多视角支持。了解更多关于如何使用StableVideo3D以及产品特色,请访问StableVideo3D官网。
TripoSR官网体验入口 3D重建AI工具软件使用方法指南教程
TripoSR是由StabilityAI与TripoAI合作开发的3D对象重建模型,能够从单张图片在不到一秒钟的时间内生成高质量的3D模型。该模型在低推理预算下运行,无需GPU,适用于广泛的用户和应用场景。前往TripoSR官网,了解更多并体验这一强大的3D重建工具。
只需2分钟,单视图3D生成又快又好!北大等提出全新Repaint123方法
将一幅图像转换为3D的方法通常采用ScoreDistillationSampling的方法,尽管结果令人印象深刻,但仍然存在多个不足之处,包括多视角不一致、过度饱和、过度平滑的纹理,以及生成速度缓慢等问题。为了解决这些问题,北京大学、新加坡国立大学、武汉大学等机构的研究人员提出了Repaint123,以减轻多视角偏差、纹理退化,并加速生成过程。图4:Repaint123两阶段单视角3D生成框架实验�
TICD:清华新文生3D方法引领SOTA,多视角一致性再突破
清华大学刘永进教授课题组在文生3D领域取得了重大突破,提出的TICD模型在SOTA水平上取得了显著的成绩。本文将介绍TICD的创新之处以及其在3D图形生成领域的应用。TICD有望在更广泛的应用中发挥重要作用,为文本生成3D领域的发展提供新的思路与可能性。
突破性AI方法WHAM:精确有效地预测视频中3D人体运动
在最新的研究中,卡内基梅隆大学和马克斯·普朗克智能系统研究所的研究人员共同发布了一项名为WHAM的创新性AI方法。这一方法在精准性和效率方面实现了从视频中准确估计3D人体运动的突破。8.通过深入的剖析研究,验证了该方法的准确性。
CHOIS:基于语言引导的合成逼真3D人机交互的AI方法
斯坦福大学与FAIRMeta的研究人员合作开发的CHOIS系统,通过引入基于语言描述、初始状态和稀疏对象航点的方法,成功解决了在3D场景中生成对象和人物同步运动的难题。该系统通过在指定的3D环境中产生逼真且可控的运动,控制了人物与对象之间的交互。将学到的交互模块应用于基于3D场景对象航点生成长期交互也将拓展CHOIS的适用性。
Meta推出实时3D头像合成方法 光线可调节
Meta的CodecAvatarsLab最近提出了一种名为RelightableGaussianCodecAvatars的方法,可以合成逼真且光线可调节的虚拟头像。这个方法通过可学习辐射传输和球面高斯实现了全频率反射的实时重新照明。RelightableGaussianCodecAvatars为实时3D头像合成提供了一种先进的解决方案,有望在元宇宙和虚拟现实等领域得到广泛应用。
新型3D生成方法DMV3D:使用基于Transformer的3D大型重建模型进行去噪
Adobe研究人员与斯坦福大学团队联合提出了一种名为DMV3D的全新3D生成方法。该方法旨在解决增强现实、虚拟现实、机器人技术和游戏等领域中3D资产创建的共同挑战。该研究为通过统一3D重建和生成的2D和3D生成模型的领域之间的鸿沟,以解决3D视觉和图形领域中的各种挑战,提供了新的视角和可能性。
Adobe发布创新的DMV3D方法 单个A100生成3D图像只需30秒
Adobe研究院和斯坦福大学的研究者推出了一项创新的3D生成方法,命名为DMV3D。通过基于Transformer的新型单阶段全类别扩散模型,该方法能在单个A100GPU上仅需30秒的时间内生成高保真3D图像。该研究为未来的VR、AR、机器人技术和游戏等应用领域提供了新的可能性。
单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法
3D生成是AI视觉领域的研究热点之一。来自Adobe研究院和斯坦福大学等机构的研究者利用基于transformer的3D大型重建模型来对多视图扩散进行去噪,并提出了一种新颖的3D生成方法DMV3D,实现了新的SOTA结果。更多技术细节和实验结果请查阅原论文。
芝加哥大学研究人员推出3D画笔:使用文本生成局部风格化纹理的AI方法
芝加哥大学的研究人员与SnapResearch合作,推出了一种名为3D画笔的人工智能方法,通过文本描述自动生成网格上的局部语义区域的纹理。这一创新使得用户可以通过直观的、自由形式的文本输入控制纹理编辑,为各种网格描述其编辑。这一研究为3D建模和纹理编辑领域带来了新的可能性,为游戏、动画、电影等各个行业提供了更加高效和直观的纹理编辑工具。
南开山大等开发trRosettaRNA 一种基于深度学习的自动化RNA 3D结构预测方法
南开大学、山东大学以及北京理工大学的联合团队成功开发了一种基于深度学习的自动化RNA3D结构预测方法,命名为trRosettaRNA。该方法采用Transformer网络,通过进行1D和2D几何形状预测,再通过能量最小化实现3D结构折叠。我们期待着深度学习方法在RNA结构预测方面的进一步发展,为理解RNA分子的生物学功能提供更为准确的工具和方法。
Wonder3D:从单张图像生成3D高保真纹理网格的创新方法
正文:将单张图像重建为三维几何结构一直是计算机图形学和三维计算机视觉领域的基础性任务。这个任务的重要性在于它在虚拟现实、视频游戏、三维内容生成和机器人操作精度等领域都有广泛应用。为了克服这个问题,Wonder3D可以使用更有效的方法来处理额外的视图。
港大与浙大联合研发SC-GS模型 鼠标拖拽实时可编辑3D重建
在数字资产创造和3D重建领域,香港大学CVMI实验室与3D大模型公司VAST以及浙江大学的联合研究团队提出了一项突破性成果——SC-GS模型。这一模型不仅在新视角合成领域掀起了革命性浪潮,更在动态场景的实时交互编辑方面展现了巨大潜力。他们期待在2024年看到更多基于高斯溅射技术的创新工作和探索。
百度地图V20 3D领先版预告:特斯拉全球首发、华为系也将用上
在今日举办的百度Apollo智能汽车产品发布会上,百度副总裁尚国斌表示,百度地图V20将在近期全面上线,支持车机端3D车道级导航。非常重磅的是,特斯拉在华的车型将首发搭载该地图,从5月开始,这一更新将陆续推送给新老特斯拉车主。值得一提的是,百度地图V203D领先版、旗舰版、SR智驾版,不仅支持iOS和安卓支持Linux、QX、鸿蒙等系统。
特斯拉将首发搭载百度地图V20 3D领先版 预计5月陆续推送
百度地图V20即将全面上线,并特别支持车机端的3D车道级导航功能。这一功能的推出,将为用户提供更加精准、直观的导航体验。随着百度地图V20的全面上线,我们期待看到更多车企和科技企业加入到这一领域,共同推动智能出行技术的发展。
InstantMesh:只需10秒就能从图片转3D模型
InstantMesh是一项突破性的技术,能够从单张图像快速生成高质量的三维网格模型。这项技术利用了前馈框架,结合了多视图扩散模型和基于大规模重建模型的稀疏视图重建技术,极大地优化了3D资产的创建过程。InstantMesh的出现,预示着3D建模和可视化领域将迎来新的变革,它将极大地提高工作效率,降低技术门槛,使得更多的人能够参与到3D内容的创作中来。
Spline发布3D生成工具AI 3D Generation 支持文/图生3D模型及混合编辑3D模型
Spline的最新3D生成工具的发布,标志着3D设计领域的一次重大进步。这款在线3D编辑工具不仅支持从文字和图片生成3D模型能够混合和编辑3D模型,为用户提供了一个全面强大的3D设计解决方案。这意味着用户可以始终接触到行业的最新趋势,并将这些新功能应用到自己的项目中,保持创作的前沿性和创新性。