刚开始学习使用 AI 绘画时,大部分人的绘画方式:

有一个想象中的画面,用中文将这个画面描述出来,再借助百度、谷歌甚至 GPT 翻译成英文,将英文填入

/imagine prompt 命令中,最后让 AI 生成一幅图画。

这个阶段,当画了一些图之后,你其实会发现生成的图,和预想的图,相差甚远。

同样的描述反复修正调整,但效果时好时坏,就一个感觉 —— 失控。

失控太难受了,特别是应用在商业化的时候。

好比我们星球的 Logo ,出了大概的样子之后,老板说这里改改,那里改改,可是 AI 不是设计师啊,局部修改相对比较难的,就是不可控,最后我们星球的 Logo 是出了两百七十多张图之后,才定下来的。

所以,AI 绘画,用一句话就能生成图片,非常方便,但是变量太多,相对就难控制。

这时候,就可以开始研究影响 AI 绘画生成效果的参数。

比如咱们之前介绍过的 Midjourney 指令支持的参数。

你可以开始关注如何写 prompt 中的关键词。

让 AI 绘画变得相对可控。

最后,你就可以通过 Midjourney ,如臂指使的画出,期望的或者甲方想要的图片效果。

那今天这篇教程,主要是教大家另外一种控制 Midjourney 生成图片的方式。

这个方式就是「图生图」。

「图生图」,有一个好处就是可以让生成的图片效果,越来越趋近于期待的画面。

所以,这篇文章,我们来研究**「图生图」、**

Midjourney 图生图主要有这么 4 种方式:

  1. 模仿:不断作图,研究 prompt 和指令参数,对于生成画面的影响;
  2. 描述:图生文模式,通过指令得到一张图片, AI 绘画相关的 prompt;