Stable Diffusion 和 Midjourney 作为目前主流最强大的两个AI绘图工具,它们到底哪个更适合你?结合自己的使用和通过相关资料把大家的关注点深入浅出的讲解一下。
首先,配置难度和上手易用程度,Midjourney不需要环境配置,已经做了模型开发、训练、调整,打开Discord就能使用,输入基本的promote就能轻松生成精美的艺术图像。
Stable Diffusion 第一次使用环境配置难度较高,虽然现在有很多整合包,但是相较于选择Discord界面的Midjourney还是麻烦很多,需要投入更多精力来构建良好的promote以生成高质量的图像。
注意,因为一个是本地生成,一个是在云端跑,所以Stable Diffusion是不需要科学上网就能使用的。
第二,Model类型和风格。 Midjourney的模型是有限的,提供V1到V5模型,V4模型默认生成具有插画风格的图像,在V5模型中可以生成更加逼真的图像。
除此之外,还有一些特殊模型,如最近比较火的Niji等。如果提示正确,Midjourney还可以生成其它艺术风格。但整体比Stable Diffusion就相形见绌了。
Stable Diffusion是开源的,得益于活跃的社区和支持用户制作自己的模型,同时又可以在社区分享,所以人们制作了不同风格的模型。
目前有数以千计的模型可供下载,可以使用LoRa进一步修改模型。C站已经有人训练出了Niji V5模型,也就是说你可以用Stable Diffusion生成Midjourney风格的图片。
第三,使用成本和权利。Stable Diffusion是免费使用,没有图片的限制,可以生成任意一张图片,但是对配置有一定要求。
相比之下,Midjourney每月至少要花10美金。但是 AI 绘画大家知道,生成一张自己满意的成品可能需要20次甚至30次的迭代。300 张的额度是不够用的,30美金每月的套餐才可能满足。
但很多人不知道,使用Midjourney生成的图像,所有权取决于您的付费等级。除了每月60美金开通Pro会员,在任何情况下,Midjourney都可以使用您的图像,而无需事先询问,且是公开的。
相反,Stable Diffusion对您生成的图像没有任何权利,甚至你可以出售它。只要你不把它分享到社区,这张照片就只会出现在你的电脑中。
第四,拓展性,Stable Diffusion开源,且在本地运行,不需要遵守任何条款。也就是说,你可以用Stable Diffusion生成任何我没法展示的图片,可以做到你想要什么就能生成什么。
Midjourney通过远程服务器上的Discord工作,因此不能使用插件,也不能编写和使用您自己的代码,也需要按照规则来生成。
关于图生图,Midjourney是将图像与文本提示一起用作promote,从而生成图像。它类似于Stable Diffusion的Reimagine工具。而Stable Diffusion中的图生图,则为把输入图像作为蓝图来生成。整体颜色和构图与输入图像非常匹配,都是空间组成。图生图在机器学习文献中叫做SDEdit。所以某种程度上,Midjourney是不支持图生图的。
Stable Diffusion和Midjourney功能对照表: #
功能 | Stable Diffusion | Midjourney |
图像定制 | 高 | 低 |
上手程度 | 低 | 中 |
轻松生成优质图像 | 低 | 高 |
修复 | 支持 | 否 |
图像拓展 | 支持 | 否 |
纵横比 | 支持 | 支持 |
型号变体 | ~1000s | ~10s |
否定提示 | 支持 | 支持 |
控制构图和姿势 | 支持 | 否 |
权力 | 无 | 取决于付费等级 |
制作自己的模型 | 支持 | 否 |
成本 | 免费 | 每月10~60美元 |
模型 | 开源 | 不开源 |
内容过滤器 | 否 | 支持 |
风格 | 变化 | 写实插画,艺术 |
图片提示 | 否 | 支持 |
图生图 | 支持 | 否 |
提示字数限制 | 没有限制 | ? |
总结:
Midjourney适合想轻松上手,较快生成令人惊叹的图像。很忙,没有时间建立或学习模型。喜欢Midjourney提供的模型风格。正在寻找开箱即用的AI绘画工具,不介意支付订阅费,不介意他的服务条款。
Stable Diffusion适合想要一个完全免费的AI绘图工具,想在本地运行一些,有较好的学习能力,想尝试各种模型组合和使用新工具,需要图像编辑功能,如图像拓展,更喜欢开源工具,喜欢更广泛的风格,希望更好地控制图像人物,如姿势控制,通过说明Midjourney和Stable Diffusion之间的区别,让你更了解哪个更适合你。
评论0