爱因斯坦霉霉同框只需15秒,最新可控AI一玩停不下来,在线试玩已出丨开源
现在,AI 绘画完全可以做到指哪打哪了!
这边哈士奇,那边牧羊犬,背景在下雪天。
啪叽!一幅画就这么完成了。
这个最新 MultiDiffusion 模型,不管选的区域位置有多离谱,它都能给你画出指定的东西来。
比如,你能看到大象和奶牛同时握草??
而且在线可试,亲测大概 15 秒就能出,你甚至可以看到泰勒与爱因斯坦跨时空同框。
要知道以前 AI 绘画最大的一个 bug 就是不可控,但现在人类拥有了更多的控制权。
总之就是,想画什么就画什么,想往哪画就往哪画!
有网友赶紧上手试了试:Not Bad!
想往哪画就往哪画
从效果来看,主要有三个方面的应用。
-
文本到高分辨率全景生成;
-
精确区域生成;
-
任意长宽比粗略区域生成。
首先,只需要一句话,就可以生成 512*4609 分辨率的全景图。
一张有滑雪者的雪山顶峰的照片。
摄影师也不用爬楼了,直接获得城市夜景图。
当然更为主体功能,那就是给特定区域单独提示,然后 AI 绘画就来指哪画哪。
比如在黑色部分是一个明亮的盥洗室,红色区域是一面镜子、蓝色部分是花瓶、黄色部分是白色的水槽。
就这么随手一个拼图画,结果就生成了真实场景。
不过也有一些 bug,像一些超现实的,他就有点太天马行空了。
比如三体人在宇宙中大战人类。
当然也可以无需那么精确,只需标个大致位置,还支持任意长宽比的图像。
蓝色部分是埃菲尔铁塔、红色是粉色的云、绿色是热气球 。
关键是各种构图都十分地合理、场景效果以及实际物体相对大小也都十分精准。
图像生成可控
背后的这个模型叫做 MultiDiffusion,这是一个统一的框架,能实现多功能和可控的图像生成。
以往即便 Diffusion 模型给图像生成带来变革性影响,但用户对生成图像的可控性、以对新任务的快速适应仍是不小的挑战。
研究人员主要是通过重新训练、微调,或者另外开发工具等方式来解决。前不久爆火插件 ControlNet 正是解决了图像生成的可控性,
而 MultiDiffusion 无需进一步训练或微调,就可一次实现对生成内容的多种灵活控制,包括期望的长宽比、空间引导信号等。
简单来说,MultiDiffusion 的关键在于,在预先训练好的扩散模型上定义一个全新的生成过程。从噪声图像开始,在每个生成步骤中,解决一个优化任务。
然后再将多个扩散生成过程与一组共享的参数或约束结合起来,目标是将每个部分都尽可能去接近去噪版本。
即便有时候每个步骤都可能会将图像拉向不同的方向,但最终融合到一个全局去噪步骤当中,得到一个无缝图像。
来自魏茨曼科学研究所
这篇论文主要来自位于以色列雷霍沃特的魏茨曼科学研究所。
两位共同一作 Omer Bar-Tal、Lior Yariv 分别是魏兹曼科学研究院计算机科学和应用数学系的研究生和博士生,后两位分别是他们的导师。
好了,感兴趣的旁友可戳下方试一试哦!
主页链接:
论文链接:
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
热点精选
- 一大波染井吉野樱花正在袭来,上几张壁纸2023-03-24 12:56:34
- 《巫师3:狂猎》PC热修复补丁推出:改善RT2023-03-24 12:49:32
- 环保人士开始拿游戏“冲业绩”了2023-03-24 12:47:08
- 资源控股已配发11.61亿股予认购人抵消1.2023-03-24 12:08:35
- 又增首页入口,支付宝生活号“看一看”上线2023-03-24 11:51:26
- 鹰瞳科技-B02251发布年度业绩研发支出12023-03-24 11:31:54
- “新生儿基因组”计划拟对10万名婴儿测序2023-03-24 11:11:29
- 亲子“充植”打造家门口的“小公园”北京大兴通2023-03-24 10:32:25
- 华为擎云商用品牌发布160;助力千行百业数字2023-03-24 09:38:10
- 阿维塔11单电机版官宣3月24日上市:全系搭2023-03-24 08:45:46