为避免你在公共场所打开此贴尴尬,不穿衣服的作品在本教程靠后的位置。
最终成品示例:
建议先完整看一遍教程视频,再阅读完下方的教程文字,然后再回到视频开头,结合着视频和文字教程一步一步操作。
视频一开始提到的训练模型的脚本在这个链接里面:
https://github.com/Linaqruf/kohya-trainer
训练模型会花费不短的时间,为了防止训练到一半就被谷歌切断资源,需要一直保持页面活跃。
为了省事,可以在开始训练模型以后,在训练模型的页面按下键盘上的F12,进入开发者模式。
并在控制台(console)输入如下代码:
复制内容到剪贴板
代码:
function ConnectButton(){
console.log("Connect pushed");
document.querySelector("#top-toolbar > colab-connectbutton").shadowRoot.querySelector("#connect").click()
}
setInterval(ConnectButton,60000);
并按回车运行,出现数字即为成功,它会自动每分钟尝试重连一次。
这一步不会也没关系,自己费心盯一下网页,别让它断联了就好了。
全部按照视频操作完以后,最后就可以在谷歌云盘里找到训练好的模型。
如果是要本地使用的话,直接下载下来并放进stable diffusion webUI的放Lora模型的文件夹里就好了。
如果是要在线使用新训练出来的模型的话,可以按照如下步骤操作:
(下面的内容开始看不懂了的话,请先去学习入门教程:
0. 新手零基础入门教程:如何不用显卡做出一张街头露出的AI图[13P])
1. 登录
https://colab.research.google.com/
2. 在Colab的设置里打开GPU
3. 运行如下指令:
复制内容到剪贴板
代码:
from google.colab import drive
drive.mount('/content/drive')
4. 指令运行完以后,就可以在Colab里访问谷歌云盘的文件了。找到并复制训练好的模型文件的路径。
(找到训练好的模型文件的方法在视频5:00处,复制某个文件的路径的方法在视频的2:15处。也就是说,你要用2:15处教的方法去复制5:00处找到的那个文件的路径。)
5. 用复制来的文件的路径替换掉下面的安装指令中的全部汉字(只替换掉汉字,除汉字外的全部标点符号、字母和数字都不要改动):
复制内容到剪贴板
代码:
!pip install --upgrade fastapi==0.90.1
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
!git clone https://github.com/yfszzx/stable-diffusion-webui-images-browser /content/stable-diffusion-webui/extensions/stable-diffusion-webui-images-browser
!curl -Lo chilloutmixni.safetensors https://huggingface.co/nolanaatama/chomni/resolve/main/chomni.safetensors
!curl -Lo ulzzang-6500.pt https://huggingface.co/nolanaatama/chomni/resolve/main/ulzzang-6500.pt
!curl -Lo koreanDollLikeness_v15.safetensors https://huggingface.co/amornlnw7/koreanDollLikeness_v15/resolve/main/koreanDollLikeness_v15.safetensors
!mkdir /content/stable-diffusion-webui/models/Lora
!mv "/content/koreanDollLikeness_v15.safetensors" "/content/stable-diffusion-webui/models/Lora"
!mv "/content/chilloutmixni.safetensors" "/content/stable-diffusion-webui/models/Stable-diffusion"
!mv "/content/ulzzang-6500.pt" "/content/stable-diffusion-webui/embeddings"
!cp "用复制来的文件的路径替换掉此处的汉字" "/content/stable-diffusion-webui/models/Lora"
%cd /content/stable-diffusion-webui
!git checkout 91c8d0d
%pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu117
!COMMANDLINE_ARGS="--share --disable-safe-unpickle --no-half-vae --xformers --reinstall-xformers --enable-insecure-extension-access" REQS_FILE="requirements.txt" python launch.py
6. 将修改好的安装指令粘贴进Colab并运行。
7. 最后运行完以后,会出现stable diffusion webUI的链接,点开就能使用了。
8. 用你新训练好的模型的文件名换掉下面的提示词中的全部汉字
(只替换掉汉字,除汉字外的全部标点符号、字母和数字都不要改动)
(模型的文件名就是一开始训练前在设定阶段你给模型起的名字)
(如果忘记了,就到你的谷歌网盘里找一下新生成的模型文件,看一下文件名)
(一般文件名是XXX.safetensors,这里只需要用到XXX的部分)
复制内容到剪贴板
代码:
<lora:模型的文件名:0.7>, <lora:koreanDollLikeness_v15:0.3>, best quality, masterpiece, illustration, an extremely delicate and beautiful, extremely detailed, CG, unity, 8k wallpaper, Amazing, finely detail, masterpiece, best quality, official art, extremely detailed CG unity 8k wallpaper, absurdres, incredibly absurdres, huge filesize, ultra-detailed, highres, extremely detailed, beautiful detailed girl, extremely detailed eyes and face, beautiful detailed eyes, ((smiling)), full-body shot, light on face, 1girl, outdoors
自己训练的模型难免有这样那样的毛病,所以我在提示词里把自己的模型的权重调到了0.7,同时使用了0.3个权重的一个以前用的很顺手的lora模型:koreanDollLikeness
9. 把改好的提示词放到它该去的地方
10. 把下面的负面提示词也放到它该去的地方:
复制内容到剪贴板
代码:
sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, bad anatomy,(long hair:1.4),DeepNegative,(fat:1.2),facing away, looking away,tilted head, {Multiple people}, lowres,bad anatomy,bad hands, text, error, missing fingers,extra digit, fewer digits, cropped, worstquality, low quality, normal quality,jpegartifacts,signature, watermark, username,blurry,bad feet,cropped,poorly drawn hands,poorly drawn face,mutation,deformed,worst quality,low quality,normal quality,jpeg artifacts,signature,watermark,extra fingers,fewer digits,extra limbs,extra arms,extra legs,malformed limbs,fused fingers,too many fingers,long neck,cross-eyed,mutated hands,polar lowres,bad body,bad proportions,gross proportions,text,error,missing fingers,missing arms,missing legs,extra digit, extra arms, extra leg, extra foot
11. 设置参数,比如:
复制内容到剪贴板
代码:
Steps: 30, Sampler: DPM SDE Karras, CFG scale: 7, Size: 512x800
12. 出图,效果参见本帖最上面的那张图。
成功出图以后,就可以按照自己的思路来修改提示词、负面提示词和参数了。
我最一开始实验的就是裸露的提示词,但是我们说好了裸露的图片会放到帖子靠后的位置,所以先来两张泳装的:
提示词加上了(cameltoe:1.2), pool, water, bikini
可以说脸部还是很成功的,跟我拿来训练的某日本女星还是有几分相似的。
但是手崩得不要不要的,自己训练的模型还是跟那些爆火的模型比不了。
但是正好给我一个机会练习一下用AI修复手部瑕疵(这部分的教程会放在2楼)。
好了,现在开始调教裸露提示词。先换上已经用熟了的这两个裸露提示词:
((nude)), ((spread legs))
好看是挺好看的,但是跟我训练用的日本女星的相貌还是不够像啊。
把另一个模型去掉,只用自己的模型试试,去掉<lora:koreanDollLikeness_v15:0.3>
这张挺像的了,再加回另一个模型,然后换个姿势试试。
加回<lora:koreanDollLikeness_v15:0.3>并去掉((spread legs))
再去掉<lora:koreanDollLikeness_v15:0.3>试试
再加上<lora:koreanDollLikeness_v15:0.3>试试
再去掉<lora:koreanDollLikeness_v15:0.3>试试
再试试穿上汉服并裸露,提示词加上(Hanfu:0.9)
分别加上和去掉<lora:koreanDollLikeness_v15:0.3>各一张
感觉单独用自己训练的模型直接出图的话,质量似乎不太稳定,还是和比较成功的模型配合使用比较好。
教程正文结束,下面介绍一些小技巧。
2楼介绍如何用AI局部重绘功能修复图片瑕疵。
3楼介绍如何用AI局部重绘功能给AI人物脱衣。
4楼介绍如何用AI局部重绘功能给AI人物穿衣。
[
本帖最后由 内力煮火锅 于 2023-4-14 16:04(GMT+8) 编辑 ]