colab上在线可玩

衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

AI画师,技术又精进了——

直接一句话/一张图,生成3D模型、环绕视频、NeRF实例那种。

还是带颜色的。

输入“一幅美丽的花树画,作者Chiho Aoshima,长镜头,超现实主义”,就能瞬间得到一个长这样的花树视频,时长13秒。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

这个文本/图片-3D生成AI,叫Dreamfields-3D,来自一个自称编程菜鸟的建筑学在读博士。

Demo刚被小哥放在微博、推特等平台,许多网友已经急着蹲内测了:

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

现在,小哥已经将它开源,colab上也能运行。

一起来上手玩玩看~

AI作画3D版在线玩

Dreamfields-3D玩法十分低门槛,大致只需要三步。这里介绍一下colab上在线玩的步骤。

首先,检查一下GPU,再安装个谷歌驱动器。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

第二步,调出工具开始运行,并安装依赖项。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

然后定义一些必要的功能,就可以在colab上训练和测试了~

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

玩的时候需要输入一些参数,保存格式有视频网格两种,输出模型格式为带顶点色的obj和ply。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

万事俱备,让我们现在开始。

试试输入“一个赛博朋克风格的飞行霓虹灯汽车,格雷格鲁特科夫斯基和西蒙斯大林风格,长镜头,CG社会,虚幻的引擎,史诗游戏”?

会得到一个果然很赛博的汽车的视频。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

如果你是《千与千寻》重度爱好者,想搞张吉卜力风格的视频玩玩。

没问题,prompt输入“一张美丽的天空城市的插图,吉卜力工作室,艺术站,8k HD,CG社会”,这不就来了——

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

有网友迫不及待上手,做出了个小计算机。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

当然在鹅妹子嘤的惊叹中,也有网友表达了希望Dreamfields-3D更好的期许。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

当然,除了文本输入,Dreamfield3D是支持图片作为prompt的。

不过现在版本还有待完善,如果输入图片,会造成过拟合,简单说就是如果喂它一张车的正面图,生成的3D视频中,那辆车可能4个面都是正面……

想要玩儿图片输入的友友们,怕是要再等等了。

基于现状,小哥在GitHub表达了未来的改进目标:

  • 同时使用不同的CLIP模型。
  • 仅在指定方向应用图像提示。未来可能要加一个图片角度的约束,例如只有在输入图片相同角度时,输出才参考该图片。
  • 作为NeRF实例读取现有网格,然后通过文本/图像prompt进行修改。
  • 在训练中减少GPU RAM的使用。

(但小哥说了,自己是个编程菜鸟,后续可不保证哦)doge

基于谷歌Dreamfields-Torch

小哥是建筑学出身,据他讲,Dreamfield3D是他从创作者角度出发,对Dreamfield-Torch做了些优化,主要的代码工作还是来自上游的Dreamfields-Torch和Dreamfields。

介绍下,Dreamfields来自谷歌,它的特点是无需照片样本,简简单单一句话,就能生成3D图像,还可以生成多种物品组合成的复合结构。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

在生成3D场景时,通常会选用神经辐射场(NeRF)参数方案。

NeRF的特点是可分别渲染场景,但需要很多张3D照片,才能实现360°视觉重建。

相比之下,Dreamfields生成3D模型不需要照片,因为它基于NeRF 3D场景技术、OpenAI文本生成模型DALL·E以及CLIP的3D生成系统开发,通过神经网络来储存3D模型。

DALL·E和CLIP同样师出谷歌,前者通过文本生成图像,后者通过文本分类图片。用CLIP来分类DALL·E生成的图像,可以提升图像生成的准确性。

Dreamfields-Torch则是一个经过修改的Dreamfields的Pytorch实现,主要是把原Dreamfields的后端,从原始NeRR换成了instant-ngp。

以此为基础,小哥做出的Dreamfields-3D基本上靠CLIP + NERF运作。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

作者简介

作者蒙胜宇(Simon Meng),奥地利因斯布鲁克大学(UIBK)建筑学在读博士。

硕士毕业于伦敦大学学院(UCL)建筑学,现为UIBK及UCL技术课程助教及特邀评图嘉宾,从事建筑设计、艺术、AI及生物学跨领域研究。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

小哥从去年6、7月份开始关注AI图像生成。

他发现,很多破圈技术,如clip guide diffusion,disco diffusion,都是一些懂代码的跨界者做的。

去年年末谷歌发布Dreamfields,他就动了用它做3D输出的心思。

于是,在拿到动画后,他用AI做了超采样放大和插帧,然后导出帧到普通的多目重建软件(类似colmap),成功重建mesh(一个用3D模型数据还原的模型图)。

Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

小哥把mesh发在推特上,结果Dreamfields论文的原作者Ajay Jain联系到他,表示了欢迎,还鼓励他保持优化更新——虽然那时候他用的是普通航拍实景重建软件,不是编程方法。

上个月,小哥在Dreamfield-Torch的基础上做了colab版,本月在GitHub开源,让大家能够愉快地玩耍。

以及,现在这个已经是基于Marching cubes的船新版本啦~

GitHub地址:
https://github.com/shengyu-meng/dreamfields-3D
colab地址:
https://colab.research.google.com/drive/1u5-zA330gbNGKVfXMW5e3cmllbfafNNB?usp=sharing#scrollTo=_VDLFG_gUEKa

参考链接:
[1]https://weibo.com/1948301550/M4o6m3vGn?type=comment#_rnd1663119855180
[2]https://twitter.com/meng_shengyu
[3]https://github.com/ashawkey/dreamfields-torch