2025-07-05 08:00:00
本节将介绍如何将一张低分辨率的图片转换成一张高分辨率高质量的图片。
为了对比提升分辨率后的图片质量,我们先下载一张原始的高清图片 1,通过 ImageMagick 命令将其转换为一个低分辨率低质量的图片,未来基于这张转换后的图片进行分辨率和质量的提升,再与原始图片进行对比验证提升的效果。
magick toucan-raw.jpg -resize 512x -quality 10 toucan-low-res.jpg
单击左侧 按钮进入 Upscaling 界面,将上面生成的低分辨率图片拖入 Assets 中,之后再拖入到 Upscale 面板的图片区域。
安装的 SDXL 模型包中包含一个 SwinIR 分辨率提升模型。选择该模型并添加如下的正向和负向提示词:
a vibrant bird, detailed, a high contrast, inviting warmth, sunlit elements, dynamic composition, 35mm lens, 1/2.8, environmental context, detailed har photography
blurry, out of focus, over saturated, text+++
将 Creativity
和 Structure
保持默认值 0
,单击 按钮生成图片。生成完毕后在 Assets 中的低分辨图片上右键,单击 按钮选择进行对比,单击 Images 选项卡回到新生成的图片页面查看对比效果。
从如下的对比中可以看出,生成的图片具有更多的细节,这样我们就可以在更高的分辨率下获得更加清晰锐利的图像。
单击画布上方的 Exit Compare
退出对比,在生成的图片上右键,单击 按钮可以在新窗口中打开图片,之后则可以使用鼠标进行放大来观察图片细节。
除了基础的分辨率提升以外,还有一些高级选项可以用来控制分辨率提升后的图片与原始图片的相似程度以及在提升分辨率过程中的创意性。Creativity
参数用于设置提示词控制图像生成的创意性,从而控制与原始图像的差异程度,值越大表示越具有创意性。Structure
参数用于确保分辨率提升过程中图像中的元素与原始图像中的元素的形状和位置匹配,值越大表示越会严格遵守原始图片的结构。
同时也可以调整生成的模型及其相关参数,例如:Scheduler
和 CFG Scale
等。
如果在提升分辨率的过程中还希望调整图片的风格,你可以尝试使用不同的提示词,例如下面是一个绘画风格的提示词:
a painting of a vibrant bird, oil painting, deep impasto, glazed brushstrokes
我们适当增加 Creativity
的值到 8
,减少 Structure
的值到 -4
,这样可以给到模型更多的自由度重新构思一些细节。最后我们来综合对比原始图片、低分辨率图片、提升分辨率后的图片以及调整风格的图片:
至此,我们 Invoke AI 101 系列的 6 节课程就全部结束了,希望大家能够通过这 6 节课程对 Invoke AI 的功能有一个基础的认知。也期待大家能够进一步探索 Invoke AI 的高级功能,去创造更多自己喜欢的图片。
2025-06-28 08:00:00
本节将介绍在使用画布进行创建和组合生成新的图片的过程中使用到的核心工具。
首先,我们使用 Juggernaut XL v9 模型和如下提示词生成一张基础图片留作备用:
提示词模板:
Environment Art
正向提示词:
futuristic terraced structure built into a mountain at dusk, twilight hues, lush greenery illuminated by soft glowing lights, multiple levels, pathways, vast mountain range, distant winding roads, glowing city lights below, towering otherworldly rock formations
为了保证可复现性,在生成这张图片时可以将随机数种子 Seed
固定,此处设置为 42
。
将生成的图片拖入画布并创建一个新的 Raster Layer。在画布上单击 Bbox 按钮,此时图片的周围将显示一个边界框,使用鼠标按住可以拖动边界框的位置,放在边界框的四角可以调整边界框的大小。
将边界框移动到画布的一个完全空白的区域,此时边界框中没有任何 Raster Layer 的内容,单击 会生成一张新的图片。
将边界框移动到画布的一个包含部分 Raster Layer 内容的区域,单击 会将空白的部分补全,通常称之为 Out Painting 或 Infilling。
如果边界框和 Raster Layer 完全重合,单击 将会基于当前 Raster Layer 中的内容重新生成新的图片,通常称之为图像到图像(Image2Image)。
修复蒙版(Inpaint Mask)用于控制在边界框中哪些区域会被修改。在图层中单击 +
新建一个 Inpaint Mask 图层。单击画布上的 按钮后,则可以在画布上绘制所需要修改的区域。
此时可以将边界框进行缩放并移动到关注的指定区域。从左侧的 Image 面板中可以看到边界框的大小为 320x320
。
但在图片生成过程中,仍然会以 1024x1024
分辨率进行生成,再通过缩放填充到边界框中。由于先生成了分辨率更高的图片,再进行的缩放,此时生成的部分可以具有更多的细节。这使得我们可以在不牺牲图片质量的前提下,对于图片的复杂区域进行优化。
修复蒙版可以让我们很方便的在图片中添加、移除和改变元素。例如,我们希望在楼梯台阶上添加两个人,可以按照如下步骤进行操作:
two people
。0.7
,单击 按钮启动生成。可以看出,在修复蒙版区域内,根据 Raster Layer 的修改和提示词的修改成功的在台阶上添加了两个人。
2025-06-20 08:00:00
本节将介绍图片生成使用到的 AI 模型和概念适配器,我们将讨论提示词和模型的训练方式是如何最终决定提示词对生成图片的有效性。
在图片生成过程中你需要认识到提示词并非在任何时候都是有效的。相同的提示词在一个模型上可以获得很好的生成效果,但在另一个模型上可能无法生成所需的图片。这是由于模型训练所使用的图片和图片的标注文本不同所导致的,因此模型的提示词指南会格外重要。这也是为什么训练自己的模型会更好,因为你完全清楚在训练模型时所使用的标注文本。
在本节教程中我们不会讨论如何训练模型,我们将重点介绍不同模型之间的差异,展示它们如何影响图片生成的过程。除此之外我们还会讨论概念适配器(通常也称为 LoRA),来帮助你更好的理解相关工具。
进入模型管理页面,在添加模型选项卡处选择 HuggingFace
,输入 cagliostrolab/animagine-xl-4.0
下载 Animagine XL 4.0 模型。Animagine XL 模型与其他的通用模型有很大的不同,Animagine XL 模型是一个动漫主题的 SDXL 微调模型。Animagine XL 4.0 基于 Stable Diffusion XL 1.0 进行重新训练所得,它使用了 840 万张不同来源不同动漫风格的图片进行微调。
Animagine XL 模型使用了一套自有的数据标注方法进行训练,提示词指南如下图所示:
整个提示词包含 6 个部分:
1girl/1boy/1other
。remilia scarlet
。touhou
。safe, sensitive, nsfw, explicit
。masterpiece, high score, great score, absurdres
。建议的负向提示词如下:
lowres, bad anatomy, bad hands, text, error, missing finger, extra digits, fewer digits, cropped, worst quality, low quality, low score, bad score, average score, signature, watermark, username, blurry
Animagine XL 模型支持一些特殊的标签用于控制图片生成。质量标签直接影响生成图像的整体质量和细节水平。可用的质量标签有:masterpiece,best quality,low quality,worst quality
。
masterpiece, best quality
low quality, worst quality
与质量标签相比,分数标签可以对图像质量进行更细致的控制。在 Animagine XL 模型中,它们对输出质量的影响更大。可用的分数标签有:high score,great score,good score,average score,bad score,low score
。
high score, great score
bad score, low score
时间标签允许根据特定时间段或年份来控制生成图片的艺术风格。这对于生成具有特定时代艺术特征的图像非常有用。支持的年份标签有:year 2005,year {n},year 2025
。
year 2007
year 2023
利用如下正向和负向提示词分别使用 Animagine XL 4.0 模型和 Juggernaut XL v9 模型生成图片。
1boy, black hoodie, white spiky punk hair, nose piercing, standing against a brick wall, masterpiece, best quality, high score, great score
lowres, bad anatomy, bad hands, text, error, missing finger, extra digits, fewer digits, cropped, worst quality, low quality, low score, bad score, average score, signature, watermark, username, blurry
同时,为了比较提示词在不同模型中对生成图片的影响,再利用如下正向和负向提示词分别使用 Animagine XL 4.0 模型和 Juggernaut XL v9 模型生成图片。
1boy, black hoodie, white spiky punk hair, nose piercing, standing against a brick wall
lowres, bad anatomy, bad hands, text, error, missing finger, extra digits, fewer digits, cropped, signature, watermark, username, blurry
为了确保可复现,手动将随机数种子固定设置为 42
,生成的图片如下:
不难看出,从正向和负向提示词中删除关于图片质量的关键词后,Animagine XL 4.0 模型生成的图片有显著的画质降低,而 Juggernaut XL v9 模型生成的图片质量变化并不大。实验说明提示词在不同的模型中效果存在差异,你必须了解模型的训练过程才能更好的使用提示词生成所需的图片。
上述问题就导致了概念适配器的诞生,通过自己训练概念适配器,你可以完全掌握对于模型的修改。进入模型管理页面,在添加模型选项卡处选择 HuggingFace
,输入 nerijs/pixel-art-xl
下载 Pixel Art XL 概念适配器。利用如下正向和负向提示词分别使用 Animagine XL 4.0 模型和 Juggernaut XL v9 模型生成图片。
1boy, black hoodie, white spiky punk hair, nose piercing, standing against a brick wall, masterpiece, best quality, high score, great score, pixel art style
lowres, bad anatomy, bad hands, text, error, missing finger, extra digits, fewer digits, cropped, worst quality, low quality, low score, bad score, average score, signature, watermark, username, blurry
在 Generation
中添加概念适配器 pixel-art-xl
并启用:
Pixel Art XL 概念适配器用于生成像素风格的图片,生成的图片如下:
需要注意,LoRA 这类概念适配器与用于训练的原始模型之间存在关联。概念适配器可以理解为一个模型的上层封装,其扩展和增强了某些概念。将其放在另一个模型上,其仍可以将这个概念应用到新的模型上,但质量可能会有所下降。这是因为训练概念适配器的底层模型与当前应用的模型可能有着不同的架构和假设。也就是说 LoRA 这类模型并不是一个完全独立的模型,而是一个专门为某个基础模型构建的适配器,但如果两个模型本质上非常相似,则 LoRA 具有一定的可移植性。
2025-06-14 08:00:00
本节将介绍「 图像到图像」和「降噪」两个重要概念,帮助大家更好的理解 Invoke 中的画布是如何工作的,或者说生成式 AI 图片生成是如何工作的。
在之前的图像生成示例中,单击 按钮后,整个图像生成过程会从一张静态噪声图像开始,模型会将噪声逐步转化为最终图片,整个过程如下图所示:
将噪声图像转化成最终图片的过程称之为降噪(Denoising)。
将示例图片拖拽至画布上,选择 New Raster Layer,示例图片如下 1:
在图层中,可以找到 Denosing Strength 参数:
Denosing Strength 用于控制初始图片或 Raster Layer 在降噪过程中影响最终输出图片的程度。设置较高的值会使降噪过程从一个具有更多噪声数据的图片开始,此时模型会具有更高的自由度根据提示词生成新的内容。
图像到图像和文本到图像的最主要区别在于图像生成的起点。文本到图像时从纯噪声开始,并根据提示词逐步细化。图像到图像则会根据 Denosing Strength 跳过前面的一些步骤,使用提供的图像作为起点。
以 a porcelain teacup on a table
作为提示词,选择 Photography (General)
作为提示词模板,分别将 Denosing Strength 设置为 0.2 和 0.8,生成的图片和原始图片对比如下:
可以看出,较高 Denosing Strength 值可以让模型具有更高的自由度生成图片,而设置较低的 Denosing Strength 值时生成的图片仅有少量的变化。除此之外,在控制层和参考图片上也可以设置 Denosing Strength 来取得不同的效果。
2025-06-07 08:00:00
本节将介绍如何使用控制层和指示来精确控制图片的生成。
控制层通常用作控制网络(ControlNet)在图片生成中以线或结构的形式来提供参考。在 SDXL 中,常用的预训练控制网络有 1:
Scribble 模型可以根据输入的图片生成线条画,处理后的图片作为原始图片的简化版本可以精准的捕捉图片的轮廓。
Depth Map 可以生成图片的深度图,在图片生成中模拟深度效果,从而创建更加逼真的 3D 图片。
Canny 边缘检测的原理是通过寻找强度突变来识别图片中的边缘。它能够准确的检测边缘并减少噪声和伪边缘,通过降低阈值可以识别更多的信息。采用 Canny 模型时,将会生成与检测到的边缘匹配的图片。
Openpose 模型可以检测身体、手部、面部等多个部位的关键点,在生成图片时可以控制人体的姿态。
Softedge 模型与 Scribble 模型类似,处理后的图片作为原始图片的简化版本仅保留形状的柔和边缘和一些浅阴影。
Tile 模型的主要功能可以归结为如下两点:
Tile 模型可以作为增强图片质量和细节的工具。如果在图片中存在一些不足的地方,例如调整图片大小导致的模糊,Tile 模型可以有效的消除此类问题从而获得更加清晰锐利的图片。此外 Tile 模型还可以添加更多细节,从而提升图片的整体质量。
在图层中单击 + Control Layer
添加控制层,或者在图片库中将图片拖拽至画布上,选择 New Control Layer
。
示例图片及其生成的提示词如下:
正向提示词:
futuristic terraced structure built into a mountain at dusk, twilight hues, lush greenery illuminated by soft glowing lights, multiple levels, pathways, vast mountain range, distant winding roads, glowing city lights below, towering otherworldly rock formations, dreamy sky with soft clouds
负向提示词:
painting, digital art, sketch, blurry
本教程以 Hard Edge Detection (canny) 模型为例,单击 Filter
中的 Advanced
可以进行更多的调整:
调整完毕各项参数后,单击 Apply
即可生成控制图片。
控制图片提供的线条可以为图片生成提供参考。在画布中,可以使用 、 和 等工具对控制图片进行添加或删除等微调操作。接下来对控制层进行设置:
Weight
:用于设置控制图层在图片生成过程中的权重,值越大则图片生成时越会严格遵守控制线条。Begin/End %
:用于设置在图片生成过程中在何时使用控制图层,将其设置为 0% 至 100% 表示从图片生成开始至结束一直使用控制图层。调整开始和结束的百分比可以给到模型更多的灵活性,从而获得更好的生成图片。Control Mode
:包含多种控制模式用于调节控制层的相关性(CFG scale):
Balanced
:提示词和控制层同等重要。Prompt
:提示词更加重要。Control
:控制层更加重要。不同的 Control Mode
的生成示例如下 2:
单击 开始生成图片。此时可以看到模型在控制线条的指示下开始生成图片。
由于将结束百分比设置为了 70%,生成的图片也具有一定的灵活创意。单击 会将生成的图片添加到 Raster Layer
。单击 可以将画布保存到图片库中。新生成的图片和用于生成控制层的图片对比如下:
接下来我们将添加一个参考图片,也称为 IP Adapter。模型会根据参考图片的风格和结构来生成图片。首先将参考图片添加到图片库,本教程中使用的图片如下 3:
将图片拖拽至左侧 Reference Image
上。
在左侧将会创建一个 Reference Image
,并可以对其进行相关设置。
Standard Reference (IP Adapter ViT-H)
模型,这里可以选择 ViT-H
、ViT-G
和 ViT-L
多种变种。Mode
:Style and Composition
表示参考样式和结构,Style
表示仅参考样式,Composition
表示仅参考结构。Weight
:类比控制层。Begin/End %
:类比控制层。在本教程中,将参考图片的 Weight
设置为 0.7,将结束百分比设置为 70%,从而给到模型更多的自由度。删除之前生成的 Raster Layer
,单击 开始生成图片。应用参考图片生成的图片和之前生成的图片对比如下:
可以看出新生成的图片在遵循控制层的前提下同时应用了参考图片的白色风格。
在新生成的图片中,可以看到左侧背景中的山峰也被应用了参考图片中的建筑风格。为了实现更精确的控制,可以选择局部参考图片,将图片拖拽至画布上,选择 New Regional Reference Image
。
在画布上选择 ,设置合适的笔刷宽度,在画布上勾勒出需要应用参考的区域,这里我们仅勾勒出建筑所在的区域。
单击 开始生成图片。应用局部参考图片生成的图片和应用参考图片生成的图片对比如下:
可以看出新生成的图片仅在勾勒的区域内与参考图片的白色风格保持了一致,背后的山峰仍根据提示词生成相应的风格。
除了基于图片的指示以外,还可以创建基于文本的局部指示。在图层中单击 +
,选择 Reginal Guidance
创建局部指示。在画布上选择 ,设置合适的笔刷宽度,在画布上勾勒出需要应用参考的区域,这里我们勾勒出建筑后面的一座山峰。在 Reginal Guidance
中选择 + Prompt
并添加 lush greenery
提示词。
单击 开始生成图片。应用局部基于文本的指示的图片和应用局部参考图片生成的图片对比如下:
可以看出新生成的图片在勾勒的山峰区域增加了郁郁葱葱的树木。
2025-06-01 08:00:00
本节将展示如何使用 Invoke 创作你的第一张图片。
从 Invoke 官网下载对应系统的安装包,根据如下步骤完成安装。
Invoke 启动后会打开主界面,从启动器的日志不难看出,Invoke 在后台启动了一个 HTTP 服务,用浏览器打开 http://127.0.0.1:9090
可以得到相同的界面:
主界面包含三个区域,分别是:
提示词区域用于输入生成图片提示词。
Prompt
中输入正向提示词,在 Negative Prompt
中输入负向提示词。图像区域用于控制生成图片的比例和大小。
Aspect
用于设置生成图片的宽高比,Width
和 Height
用于设置生成图片的宽高。Seed
用于设置生成图片的随机数种子,设置相同的随机数种子将在相同的条件下得到一致的图片,这在微调的时候会派上用场。中间区域用于查看和调整生成的图片。在后续教程中将会深度介绍如何使用该区域来优化生成的图片。
在上方选项卡中单击 Canvas
可以打开画布,单击 Image Viewer
可打开图片浏览器。
图板用于组织和管理用户生成的图像,它提供了一种结构化的方式来高效地分类和访问这些图像。
在图片库中,你可以将图片拖拽到画布中来使用。此外,你还可以在图库中共享、下载和删除图片。
图层区域显示了工作区中用于修改图像的所有活动图层。单击右上角的 +
图标即可添加新图层。你可以创建多个图层并对其进行操作和变换,在生成图像之前进行组合使用。
单击左侧面板的 图标打开模型页面。针对新手用户 Invoke 提供了新手模型包,单击 Starter Models
选项卡,可以看到系统提供了 Stable Diffusion 1.5
、SDXL
和 FLUX
三款模型包。根据官方系统环境要求和自己的设备性能选择合适的模型包。
在下载模型前,需在 HuggingFace 的设置页面创建 Token,并将其保存在 Invoke 模型页面的 HuggingFace 选项卡中。本教程选择 SDXL
作为模型包,单击模型包启动下载。模型下载完毕后可以在 Model Manager
中查看已下载的模型。
在提示词模板中选择 Environment Art
,在 Prompt
中输入如下提示词:
futuristic urban park, neon lighting, raised highways, green spaces, modern architecture
单击模板中的 按钮会开启应用模板后的提示词预览,如下图所示:
可以看到,提示词模板在用户输入的提示词基础上添加了更多的正向和负向提示词。在 Generation
中选择 Juggernaut XL v9
作为生成模型。
在左上角 中输入生成图片的数量,单击 开始生成图片。单击左侧面板的 图标打开队列页面,等待中、执行中和已完成的所有任务都将显示在该页面中:
生成的 3 张图片如下所示:
为了验证 Juggernaut XL v9
模型对于中文提示词的兼容性,对上述示例和 Environment Art
提示词模板中的提示词整理中英文对照版本如下:
提示词 | 英文 | 中文 |
---|---|---|
用户 - 正向 | futuristic urban park, neon lighting, raised highways, green spaces, modern architecture | 未来城市公园, 霓虹灯, 高架公路, 绿色空间, 现代建筑 |
模板 - 正向 | environment artwork, hyper-realistic digital painting style with cinematic composition, atmospheric, depth and detail, voluminous. textured dry brush 2d media | 环境艺术作品, 具有电影构图的超现实数字绘画风格, 大气, 深度和细节, 丰满, 纹理干笔画 2D 媒体 |
模板 - 负向 | photo, distorted, blurry, out of focus. sketch. | 照片, 扭曲, 模糊, 失焦, 草图 |
用户的正向提示词使用中文,选择 Environment Art
提示词模板(即提示词模板使用英文),生成的图片如下:
用户的正向提示词使用中文,不选择提示词模板,将 Environment Art
提示词模板的中文提示词补充到用户的正向和负向提示词后,生成的图片如下:
不难看出虽然图片生成的画质不错,但其并未遵循提示词的指令生成(看起来是将中文提示词作为了画风),因此可以判断 Juggernaut XL v9
模型不具备直接使用中文提示词的能力。