在 AI 生图方向,除了 Midjourney、Stable DIffusion,其他都是弟弟。尤其是 SD!开源!免费!稳定!我愿称之为 AI 届的赛博菩萨!
而且人都开源了,好不好用我还能不知道嘛?
目录
为啥选择 MJ 和 SD?
SD 的基本介绍、体验和技巧
文末附 MJ 咒语合集和SD 软件及其安装教程,需要的友友文末自取就 ok~ 为啥选择 MJ 和 SD?
如果说 MJ 和 SD 是王者,那国内一大堆 AI 绘图大模型可能还在钻石阶段慢慢打怪。
也不是不能用,但就是差亿点意思,你把同一个毛坯图给国内模型和 SD 完全两个效果。
给国内某大模型设计出来的图是这样的:
挺可爱的,但也只能看个乐子,放大学小组作业都会被老师批,别提拿给甲方看了。
但你投给 SD 出来的是这样的:
稍微改改就真的可以给甲方看的,放玩意儿放在大学简直就是降维打击。
不仅如此,SD 用来给线稿上色也有一手,像这种古风插画图色,以前搞半天现在 1 分钟搞定,主要还经得住细看。
真·生产力大爆发!!!
当然除了 Stable DIffusion,Midjourney出图也非常精致,但 MJ 操纵性一般,用来渲染一些氛围感场景啥的比较合适。
在「指令丰满」的前提下,MJ 搞插画、头像和角色设计都非常厉害,像小某书上卖的很好的皮克斯风头像基本都是 MJ 一键整的~
而 SD 可以搞一些要求更明确、细致的东西,方便根据甲方的要求改动,比如商品海报、线稿填色和 3D 盲盒等,其实很多设计大佬是直接把它当成一个高级的 PS 工具的,训练自己的模型助手,哪里需要改哪里。
像我朋友圈就有一个用 SD 结合 PS 的大佬,就用 SD+PS 给 coser 一键 p 头发、换背景,又快又真又精准,对于普通修图师简直就是碾压性的存在。
一句话:MJ 更简单渲染场景更丰富,SD 更精准细节处理更到位。
对于 MJ 来说,指令咒语起决定性作用,而对于 SD 来说,指令控制风格和大概内容。
模型、Lora 和迭代次数决定最后的细节,也因此方便设计者们针对性修改与调节。
当然,如果你懒得训练 Lora,也可以 MJ+SD 一起用,让 MJ 输出氛围性场景,再 SD 图生图细化,降低幅度反复重绘,多次迭代从中取优。
但不管怎么说,在 AI 绘图这个领域,MJ 和 SD 都是碾压性的存在,尤其是 SD!
像 MJ 还需要翻 qiang 付费,而 SD 直接开源啦!
大家可以一起自由交流下载,自由训练自己的模型,可以整合进 ps 和 blender,还有 controlnet 插件,真·实打实的生产力工具!!!
如果不知道怎么下载 SD 或者没安装包的话,可以看看知乎知学堂官方开的 「AI 应用实战」 ,里面主要讲的就是MJ 和 SD 在设计工作中的实际应用,听完就可以领 get MJ 咒语指令 和 SD 的安装包和安装教程。
入口就是下面这个,不知道啥时候没,建议先保存一把子:
tips:
1.里面有 2 节,一节讲的 MJ 一节讲的 SD,建议重点听一下 SD 那块!!!
SD 本身相对复杂,那个公开课讲的很实在,一步一暂停地带着你讲,小白对着视频直接 1:1 操作都成,看完你就知道怎么去训练一个属于自己的 Lora 模型~
2.需要添加微信预约领取哦!
他们都是微信直接发的~
3.如果你已经开通了 MJ,可以详细听听他们的 MJ 指令那块,像新海诚风、多巴胺风、皮克斯风、极简风、赛博朋克风这些整出来都挺好看 der~
MJ 本身就相对简单,学一下咒语的参数和后缀,领一下 MJ 咒语指令文档基本就够用啦!
SD 的使用体验和技巧
MJ 操作较为简单不可控就不多说啦!
下面是 SD 的基本介绍、体验和技巧,建议在解压安装好 SD 后,结合上面那个 AI 绘画视频公开课食用哦~
1.SD 常用的模型
SD 其实是第一个文生图的算法,它常用的大模型有 4 个,包括 checkpiont、Lora、embedding 和 vea。他们的具体作用如下:
2.SD 关键词
stable diffusion 提示词/咒语(Prompt/Negative prompt)的元素越全面,给出的内容才能更精准。 SD 不认中文,所以一般需要翻译软件或者直接安装一个翻译的插件。
可以用简短的词组或者内容的三要素(人物/环境/画幅),也可以通过一些标准化提示次来稳固画面。
比如二次元-animecomic,game CG,写实-photorealistic, realistic,photograph,画师名字-Makoto Shinkai 等等,常用的高质/反向提示词我列下面啦,需要的友友可参考/复制:
「通用高质量提示词(prompt)」:
最佳质量-best quality,超细节-ultra-detailed,高清-hires,8k 质量-8k,超精细 8k 游戏壁纸-extemely detailed CGunity 8k wallpaper,杰作-masterpiece,高度精细-highly detailed,虚幻引擎渲染-unreal engine rendered,专业插画-professional illustration
「通用反向提示词(Negative prompt)」: 病态-morbid,最差品质-worst quality,低品质-low quality,腿脚不正-error legs,畸形四肢-malformed limbs,多余肢体-extra limbs,手指融合-fused fingers,皮肤瑕疵-skin blemishes,单色-monochrome,灰度-grayscale,多手指-6 more fingers on one hand,畸形-deformity
3.SD 图生图
SD 图生图的应用范围非常广泛,包括给线稿填充涂色,给 MJ 生成的图片二次细化,结合 PS 换背景等!
而图生图的核心就 6 块,包括 CLIP 反向推理(Interrogate CLIP)、图生图(img2img)、涂鸦绘制(sketch)、局部绘制 (inpaint)、涂鸦蒙版 (inpaint sketch)、上传重绘蒙版 (inpaint upload)和批量处理 (batch)。
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果。
局部绘制 / inpaint:只想改变图片的某一部分,把要重绘的区域圈出来,并且添加一些提示词,如更换背景,加头发等。涂鸦蒙版 / inpaint sketch:这个功能和局部绘制很像!但是你还可以设定蒙版的透明度且可以自定义颜色。但是通常来说,蒙版的透明度不要超过 40%。涂鸦绘制 / sketch:在原始图片上创作新的内容,或者给已有的线稿上色,记得选择恰当的模型。
上传重绘蒙版 / inpaint upload:这个功能可以让你上传一个蒙版,白色代表重绘部分,黑色代表要保留的部分。批量处理 / batch:如果你有大量的图片要处理,可以用这个功能。只需输入图片的目录路径、保存路径和蒙版路径,就可以一次性处理多张图片。
文字看起来或许稍显复杂,真学 SD 还得看视频!对 SD 或图生图感兴趣的友友可以直接看下面这个 AI 绘画公开课 1:1 复刻操作就 ok!
直接看视频会比文字清楚的多,一边操作一边暂停讲解,包括 Midjourney、Stable diffusion 的关键词技巧,图生图实操流程等等,教你「精准控制」所有图片细节,让你的 SD 听得懂人话~
<a data-draft-node="block" data-draft-type="edu-card" data-edu-card-id="1835650067979235328">ps:听完记得领一下 SD 安装包、模型库和 MJ 指令哦~
关于 AI 绘画就先分享到这儿啦!
还是那句话:在 AI 绘图工具里,MJ 和 SD 吊打一切!尤其是 SD,精准、开源、不要钱钱~
另外如果有更好使的 AI 工具或 SD 的隐藏玩法也欢迎评论区一起交流讨论!!!我蹲评论看到都会回 der~
使用 App 查看完整内容目前,该付费内容的完整版仅支持在 App 中查看
🔗App 内查看 |