Meta推出AI新模型VFusion3D,微美全息(WIMI.US)布局AIGC+3D内容加速产业转型升级
日前,Meta(META.US)和牛津大学的研究人员开发了一种新的3D生成式AI模型VFusion3D,能够从单张图像或文本描述生成高质量的3D对象,可能会改变虚拟现实、游戏和数字设计等领域。
AI新模型VFusion3D来袭
据悉,VFusion3D界面简单直观,允许用户自己上传或从一系列预加载的示例中选择图像,预加载的示例表现非常出色,生成的3D模型和渲染视频以显著的准确性捕捉了原始2D图像的本质和细节。
该研究团队利用预训练的视频人工智能模型生成合成3D数据,使他们能够训练更强大的3D生成系统,解决了长久以来的3D训练数据稀缺问题。随着这一突破,最终可能会加速3D内容的各个行业的创新。
生成AI+ 3D模型受青睐
自 ChatGPT 火爆全球,以支持图像输入的多模态大模型 GPT-4 的推出作为契机。大模型的多模态计算潜力开始在内容生成领域发挥技术优势,顶尖的科技公司和想要抓住 AIGC 风口的初创企业开始争先恐后地推出 AI 驱动的 3D 模型生成器。
目前,行业内应用更广泛的另一种技术路径,即借助 2D 扩散模型生成 3D 模型,该方法实现从文本到 3D 模型跨越的关键在于两个技术点。
说起来,近来,由文本到 3D 生成的方法可以生成令人印象深刻的 3D 效果,上一次出圈是在 SIGGRAPH 上:在 2021 年,英伟达在这个舞台上介绍了给黄仁勋制作 3D 模型的方法,以假乱真的效果震撼了世界。
而就在上周举行的 SIGGRAPH 2024 大会上,英伟达(NVDA.US)CEO黄仁勋同Meta的CEO扎克伯格进行对话,双方都认可AI大模型的进化方向。
此外,苹果(AAPL.US)公司正在研究的生成式 AI 技术“HUGS”经过训练后,可以在约 30 分钟内生成数字人类分身,拓宽了 3D AIGC 技术的使用场景。
业内人士指出,如今,可以肯定的是,3D AIGC 的火热之下,以及以 XR 为代表的的虚拟内容领域,其核心都在于提高创建3D资产的效率。尤其建立在虚拟世界基础上的 XR 行业更是如此,3D AIGC 技术的出现大概率会对尚在发展初期的 XR 内容行业带来颠覆性的变革。
微美全息密集布局
资料显示,微美全息(WIMI.US)作为3D视觉及AIGC算法厂商,近年来加快布局3D全链条协同创新,构建以自主技术为主的3D生态体系和产业化应用,同时强化战略人才力量建设,多层次引育3D技术创新和产业领军人才,给了其他平台进一步发展的空间。
目前来讲,微美全息将AIGC技术和3D生成结合,可实现更高效、更高质量的3D数字人内容生成,生成的数字模型和纹理进行优化,实现个性化的3D大胡子角色生成。此外,生成后的角色还可以进行360度全方位查看,同时也可以选择把角色进行分享或者公开,极大提高了3D数字人内容制作效率。
如今,已经看到AIGC+3D技术在电商、游戏、AR/VR等市场上的巨大增长,未来还将赋予下一阶段3D内容创作以力量帮助。对此,展望未来,微美全息的3D生成能力+AIGC视觉技术赋予终端感知能力,也将不断与更加丰富的场景结合,持续助力更多产业发展。
结尾
总的来看,3D AIGC 技术基本已经实现了从无到有的跨越。而从应用场景上看,所有与 3D 密不可分的行业未来都会成为 3D AIGC 技术的潜在客户,在这方面,企业抢先入局将 AI 图像、视频、3D 和实时AI生成模型结合在一起,通过文本提示创建完全沉浸式的虚拟环境,将成为未来更大赢家。