赶在圣诞假期前,Midjourney 发布了 V6 beta 版本,北京时间13:56,老美那边大概夜里10点。
他们是想趁着还没回家过圣诞,赶紧先发了。然后让大家一边过圣诞,一边给他们打黑工帮他们测模型。
现在,你使用/setting命令,在模型选择框中,就可以看到V6 Beta版。
按照Midjourney的话说:“This is an alpha test. Things will change frequently and without notice”
包括提到了“速度、图像质量、连贯性、提示跟随性和文本准确性将在接下来的几周内得到改善。”
我猜测模型完成度在85%左右,剩很多对齐工作没搞完。
官方说的目前V6 Beta的更新内容包括:
1. 更准确的提示跟随以及更长的提示;
2. 提高连贯性和模型知识;
3. 改进的图像提示和重新混合;
4.较小的文本绘制能力(必须将文本写在“引号”中,并且 --style raw 或较低的 --stylize 值可能会有所帮助。)
5.改进的升级器,具有 'subtle ' 和 'creative ' 模式(分辨率提高 2 倍)。
有点太废话,我翻译成人话就是:能容纳更多的词语token了、语义理解更强了、图像质量更好了、能嵌入一点英文单词进去了、图像能放大更多了。
我跟上百个群友一起跑了三个多小时,整体感受最大的变化其实还是两部分:
图像质量的提升与语义理解的加强。
一、图像质量的提升
图像质量我关注的是以下几个维度:细节密度、材质质感、色彩表现、光影表现、构图表现、结构真实性。
MidjourneyV6 Beta在细节密度、材质质感、光影表现、结构真实性上,都有巨幅提升。构图表现和色彩表现有小幅提升。
直接放对比图,没啥可说的了,部分图片来源于好基友@鲜虾包、@猫宅V酱、@大峰AI绘画。
就不放太多了,反正核心思想就一个:图像质量up、up、还是up。
知道在细节密度、材质质感、光影表现、结构真实性上,都有巨幅提升就行了。
下面一趴的语义理解才是最核心的重点。
二、语义理解的加强
我重点来聊聊语义理解这块的变化。
我曾经毫不避讳地骂过Midjourney,它的语义理解就是一坨屎。让我在做过往的AI作品时,无数次带上痛苦面具想砸电脑。
但是这一次,MidjourneyV6 Beta对于语义理解的加强,终于到了中上游可用的地步,注意我用的词是“可用”。跟DALL·E3这种逆天的还没法比。
首先请忘掉所有的SD式的写法,不要写tag,不要写“photorealistic, 4k, 8k”之类的垃圾词,他们对于新版V6 Beta没有任何用处。
不要写tag,不要写tag,不要写tag,重要的话我说3遍。
更别直接用v5.2的prompt直接拿来复制粘贴,请重新学习新版V6的写法。
整体上,我觉得更强调把细节说清楚的能力。我推荐的结构是:
场景+主体+细节+美学风格。
比如我的这段Prompt:
非常复杂,但是我几乎都是以长句子去写的,清晰的描述场景和主体以及部分衣服细节。
再看看v5.2,可以就语义理解上,做一个清晰的对比。
在新版prompt的写法上,我说一些我认为有趣的技巧:
1. 你可以指定任何细节。
不要吝啬你的想象力,更不要吝啬你的笔墨,用一切有逻辑、有结构的语言,把你想要的细节指定出来。她穿了什么衣服、衣服是什么材质、什么颜色。写明白,写明白比一切都重要。
比如:
2.你可以使用语言控制构图。
在V6中,现在很容易用语义去定位事物之间以及与相机的关系。这个在V5中几乎是难以想象的。
现在我们可以用短语描述一个通用的图像,以这个通用图像为焦点。围绕它填充细节。
比如:
3.你可以向你的图像中添加文本。
DALL·E3的老传统了。可以给你图像添加文本,将需要嵌入图片的文字放在 “引号”内,并且保证你描述的画面上适合嵌入文本。比如你非说要在她鼻子上写个“shabi”,那写不上去你也不能怪MJ对吧。
比如:
三、写在最后
Midjourney V6 Beta带来的有趣是一定的,对真实感和图像质量的加强,基本到了现在所有AI绘图的颠峰,再配上独一档的审美,以及史诗级的语义增强。
可以看到,Midjourney未来正式版V6的推出,一定又会开始“遥遥领先。”
诚然,问题还很多,比如对于其他的风格加强好像并不明显。
比如很多功能都还不支持。
但是瑕不掩瑜。
MidjourneyV6 不是AI绘图的最后一步。
而是又一次AI历史长河中的丰碑。