AI绘画 | 图生图 StableDiffusionWebui参数介绍

AI资讯 11个月前 硕雀
40 0

stable-diffusion-webui AI绘画工具,本文介绍图生图,以一张图片做底图优化生成。

例如:上传一张真人照片,让AI把他改绘成动漫人物;上传画作线稿,让AI自动上色;上传一张黑白照,让AI把它修复成彩色相片。 https://github.com/AUTOMATIC1111/stable-diffusion-webui

这个功能位于「Img2img」的页签。

stable-diffusion-webui参数

Resize mode:调整生成图片分辨率的模式,有原始分辨率、矩形、精确缩放等选项

  • Just resize:紧调整大小,直接拉伸图像
  • Crop and resize:裁剪然后调整大小,长宽比保持不变,但左右两侧会损失一点数据。
  • Resize and fill:调整大小并填充,这会在你的图像周围填充新的噪点
  • Just resize (latent upscale):和第一个选项相同,但使用的是潜在空间上采样技术。

Sampling method:采样方法,主要有Euler、Euler a、DPM++、DPM Fast等。

Sampling steps:采样步数,一般设为20-100,步数越多质量越高但速度更慢。

Refiner:选择是否使用重采样模型提升质量。

  • Switch at 10 - 在第10步时切换到重采样模型。
  • Switch at 0 - 表示一开始就使用重采样模型,不进行普通采样。
  • Switch at -1 - 表示全部使用普通采样,不切换到重采样模型。

Resize to:直接设定生成图片的分辨率大小

Resize by:按比例缩放生成图片的分辨率。

CFG Scale:控制生成图片质量和速度的折中参数,范围7-12。

Denoising strength:去噪强度,默认为0.75,数值越高去噪强度越大。

Seed:随机种子数,确保每次相同条件可以复现结果。

Script:选择定制脚本,实现不同效果。

Interrogate Deepboooru 上传图片后,用Danbooru图库数据判别图片并自动填入提示词。需要注意Deepbooru训练的图像数量有限,它顶多只能用来认图片的场景和人物tag,无法准确标出最新的动漫角色。

Interrogate CLIP 类似Deepbooru用途,不过较适合判别真人照片内容。

Refiner
Refiner 选项框内包含两个选项,一个是模型的选择框 “checkpoint”,另一个是决定何时开始使用 refiner 模型 “switch at”。当 “switch at”设定为0.5时即表示前一半的步骤使用 base 模型迭代,最后一半的步骤使用 refiner 模型迭代。设定为1则表示关闭此功能。

很有意思的是,refiner 的模型选项框内可以选择不止refiner 模型,还可以选择其他的普通模型(SDXL 和 SD1.5 都可以),因此就衍生出一种新的玩法,比如前面几步我使用真实模型,后面几步则使用动漫模型推理,生成更具特色的图片。

inpainting
https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase#inpainting 当用户想要改进生成的图像中的某些部分时,可以使用修复功能来指定并编辑图像中的任何部分。

scripts (自定义脚本)

Loopback
这个功能允许用户多次将输出图像反馈到img2img中,使用相同的提示生成更多图像。

SD Upscale
用于提高低分辨率、小尺寸图像的大小和质量,通过使用算法如Lanczos和Real ESRGAN/ESRGAN来放大多个图像,并将这些图像叠加生成单一放大图像。

  • Lanczos 是一种标准的图像缩放算法,虽然面部更干净一些,但它通常更忠实于原始图像。
  • Real ESRGAN 2x Plus的色调稍偏暖,头发、衣服上的皱纹等细节有些模糊,给人一种柔和的印象。
  • 无论Real ESRGAN 4x Anime 6B是否是专门用于动画的算法,给人的印象是整体绘制均匀,并且经过校正,使颜色清晰分离而不是渐变。另外,修饰后的脸部也有一丝动漫人物的气息。
  • Real ESRGAN 4x 具有柔软而模糊的触感,尤其是当您观察女孩的皮肤触感时。

Outpainting mk2
图像的外延绘制功能,即在图像的边缘添加新的内容。

Poor man's outpainting
更基础的外延绘制方法。

Prompts from file or textbox
用于从文件中读取提示,并用于图像生成

Prompt matrix
这个功能允许用户通过组合输入的字符串(提示)来生成图像。通常,关键词是用逗号分隔的,但在Prompt matrix中,它们是用竖线('|')分隔的。例如,输入提示“繁忙的现代城市街道 | 插画 | 电影式灯光”,系统将生成结合了“繁忙的现代城市街道”、“插画”和“电影式灯光”的图像。这个功能可以输出多种组合的图像,让用户看到不同元素组合的效果。图片

controlnet m2m
加载视频,,并照常配置 controlnet 的其余部分,但不加载图片

Controlnet 将从视频中获取图片并创建视频。 https://www.reddit.com/media?url=https%3A%2F%2Fpreview.redd.it%2Fio1uce6d6zka1.gif%3Fformat%3Dmp4%26s%3Deae8ab720eeaa71a0197a3999ae53d7d88057317

X/Y Plot
这个功能提供了两种选择项“X Type”和“Y Type”,用户可以选择不同的变量,如“Seed”(种子)、“Steps”(步骤)、“CFG Scale”(CFG比例,越高的值使图像更接近提示)、“Prompt S/R”(结束提示)和“Sampler”(采样器)。用户可以通过这些选项来生成不同风格和特征的图像。例如,选择不同的画家风格和采样器类型,可以看到每位画家风格的差异以及不同采样器带来的效果。

来源:www.aiug.cn
声明:文章来源于网络,如有侵权请联系删除!