• «
  • 1
  • 2
  • »
  • Pages: 1/2     Go

1327522.jpg

Ridley

GF  2023-07-09 15:45
(空的)

[经验分享|真人模型]显卡不够给力?一些简单的方法或许能帮你更好更快文生图


距离上次发炼丹帖过了两周了,你知道我这两周怎么过的么?沉迷赛博温柔乡无法自拔

咳咳,作为独狼玩家玩AI画图也有半年多了,这次来简单分享下真人模型的个人画图经验,也是在把玩之前炼丹成果时有点新发现。没有什么比直接文生图抽卡更爽的,图生图controlnet各种workflow钻研个半天,说真的普通玩家还不如多抽几张卡来得实在。

我个人平常跑图用的是移动版的2070s maxq,8G显存,在一众桌面版40系显卡前显然是不够看的。但在我陆陆续续的调教下,目前文生图跑一张1024*1536并且效果不错的真人图片,时间控制在30s以内,如果不开面部修复可以只用23s;1080*1920则在40s内,不开面部修复在33s左右。至于4K以上,那就是图生图的工作了。

Prerequisites

首先我用的是带启动器的秋叶包,automatic1111 webui版本1.3.2(强烈建议升级到1.3.0以后),Pytorch: 2.0.0+cu118,xformers: 0.0.17。如果你是老版本的整合包,建议直接下个秋叶4.0以后的整合包并升级webui到23周之后的稳定版,才不是因为当时手动升级给我整合包干报废了

这里提一嘴,旧版的启动器可能会在一部分设备上莫名其妙占用cpu,以及成为无法杀死的僵尸程序严重拖慢跑图速度。我之前在绘世的discord群反馈过这个bug,当时研究了很久都没有解决,但经过启动器几次更新后这个bug貌似被修复了。如果你用现在的启动器也有这个bug,可以考虑在b站搜索“魔法书”,他们的启动器也能无障碍启动秋叶整合包。

此外还有一个手段或许能让你的显卡加速,就是在Win10的Settings-System-Display-Graphics settings里打开你的Hardware-accelerated GPU scheduling(即硬件加速GPU计划)并重启,此方法不一定对所有设备有效,但打开了肯定不会让你跑图变慢。


Prompt

对速度没有影响,但每多读取一个lora +1s

大模型

对速度没有影响,只是占用显存区别。根据你的xp以及你的lora酌情选择即可,根据我之前的实验,realidefmix模型(https://civitai.com/models/66728/realidefmix)对真人lora兼容得很好,它不一定是最优秀的,但在我用过的近30个realistic大模型里是效果最符合xp的,缺点可能就是背景不够华丽,要酷炫背景可以考虑MajicmixLux/Fantasy, fantasticmix或者Guofengrealmix,模型太多还真不好推荐还容易暴露xp,但一个大模型如果融了太多lora不一定是什么好事。

Lora模型

如果你调用了人物lora,那恭喜你画真人图质量70%(瞎蒙的)取决于你的lora质量,如果你的人物lora是2D/3D混用或者2.5D的,那即便你分层控制后也大概率得不到完美的真人图,放真人大模型里跑出来的基本都是牛鬼蛇神亦或身体比例不协调。这时候你应该去下几个2.5D的大模型效果会更好,这类模型也有很多,举几个例子:perfectWorld, Guofeng3_v34, dreamshaper, revAnimated, 饭特稀大颗寿司......

如果你想调用面部lora改善人物面部,需要注意的是现在很多大模型都融了面部lora进去,只有在一些泛化性强的大模型里面部lora还是有必要的,我用过的面部lora大概有KoreanDollLikeness, JapaneseDollLikeness, ShojoVibe, Fashion Girl, CM-Mix以及嵌入式embedding的ulzzang-6500Pure Eros Face,嗯大概就这些吧。

采样方法(Sampler)

目前主流的真人模型采样是用的DPM系列,不排除其他好用的采样算法比如DDIM,但我真就只用DPM,跑图又快又好。

DPM++ 2M Karras:目前版本的神,迭代快,20步成图,30步以后收敛
DPM++ 2M alt Karras:目前版本的神的妹妹,粗略来说画图颜色更柔和一些,其他跟它姐完全一样好用
DPM++ SDE Karras: 迭代慢,15步成图但不收敛,让AI放飞自我
DPM++ 2M SDE Karras: 新来的,迭代速度跟神差不多,30步成图但推荐大于30步不然可能残留色块,不收敛

具体哪个效果更好见仁见智,但如果保证出图质量的同时追求速度,DPM++ 2M (alt) Karras迭代25步或许是该多目标优化的解。

高清修复(Hires. fix)

重点来了。首先放大算法,这个老生常谈了,一般都推荐R-ESRGAN 4x+,我觉得没有问题。

重绘幅度我测试下来0.4~0.6都还可以,更经验的解决方案是带人物lora:重绘幅度[0.4,0.5),不带人物lora:重绘幅度[0.4, 0.6)。纯经验,具体还是需要根据模型自己尝试。

高分迭代步数高分采样方法,这一步是最占用时间的也是我们坚决要偷工减料的地方。

默认高分迭代步数0也就是跟之前的迭代步数保持一致,civitai上一些大模型的作者可能这里建议15步,我们先来看图



只能说完全一致,迭代5步的时候就已经可以高清修复成图了,那还继续跑啥啊,高清修复直接5步出图节省五分之四时间,我试了其他几个真人大模型也基本都能很快成图,但5步是个临界值,为了防止偶然情况未收敛,我选择7步(老抠门了)。

高分采样方法。没错这也是能单独修改的,但需要你webui版本1.3.0以上,在设置-用户界面最下面开启并完全重启webui,我们知道SDE比2M慢,来看看效果(高清修复前都是SDE采样,左边是高清修复SDM采样7步,右边是高清修复2M采样7步)



可以看出没啥区别甚至2M细节更优秀,2M迭代速度还接近SDE的两倍。那么问题就解决了,高清修复前的采样你可以随便折腾,不管有没有lora只要能成图就行,画面主要还是修复前掌控的,然后到高清修复时直接转投神的怀抱,7步之内枪更快,呸,光速修复成高清大图。

面部修复(After Detailerface editor

这一步占用时间但却也是必须的,毕竟不经过面部修复的AI真人图都是恐怖谷效应甚至古神。

直接说结论,面部修复效果After Detailer=face editor,都取面部重绘幅度0.2~0.3且不重绘全图。但是After Detailer一个插件就包括了修脸修body修手,建议用After Detailer同时开启mediapipe_face_full修脸和hand_yolov8s修手(这几个模型记得安装After Detailer的时候去github找下载),修手重绘幅度默认即可。注意这里的修手并不能让你的魔爪多一根或少一根手指,能做到的只有让你的鸡爪变成干净的鸡爪,但也已经很实用了。

CFG scale

对速度没有影响但对画面细节有影响,那就安排



其实在使用lora时CFG scale>=7的时候就已经差不多了,后面更多是在皮肤上下工夫,到最后细节是上去了,肤色也变暗了,不符合我的xp。来看看打开了CFG scale修复(Dynamic Thresholding插件)的效果。



总之如果没有用人物lora,CFG一般就按大模型作者推荐的来设置。如果有人物lora我选择了CFG scale=9,并开启Dynamic Thresholding模拟Mimic CFG scale=7,别问,问就是中庸



总结

这个Kitchen UI是sd-webui-kitchen-theme-legacy插件,webui全页截图用的是Chrome插件GoFullPage,免得有人问。



图片压糊了,看链接:https://mega.nz/file/uAAzRS7B#NxDkc8tR_MWnWUrg1rzymHzhhwNBcRzDDaPBl-jab9A

不常用的插件就关了,要用了再去开。


ptw


yokiop


7.gif

小帆

好好好

黄泉泽月季乃


none.gif

527f768a

大佬太强了

a5.gif

hi_co

这都是宝贵的经验

139183.png

rabbit-0585

B7F  2023-07-11 17:16
(蘑蘑姑姑大大大)
感谢分享经验!

none.gif

tianqi008

感谢分享经验

e2dc09a1


none.gif

1234miao

感谢分享经验,话说UP修二次元吗

5ad555a8d435b.jpg

恨姐不是秋

感谢分享经验,最近炼国漫骚鸡Lora很上头

287038.png

enedy

很有精神

none.gif

63f7dd2b

真的非常棒

none.gif

Flanker

B14F  2023-07-13 22:15
(とんでもないことなんてどうでもいい)
原来高分不强制默认0吗,学到了

877886.jpg

evill

B15F  2023-07-13 22:25
(唧唧复唧唧)
感谢

1430056.jpg

EikoChan

好文mark

none.gif

0a2f7525

大佬,看了你之前的帖子觉得你很厉害 刚刚从生图接触到炼丹,想问问大佬推荐学习炼丹的教程和大佬之前炼丹用到的参数什么的

none.gif

0a2f7525

特别是真人lora这种感觉教程特别少

1327522.jpg

Ridley

B19F  2023-07-17 15:24
(空的)

回 17楼(0a2f7525) 的帖子

我也只是拾人牙慧罢了,炼丹很难说有教程,毕竟调参需要具体问题具体分析,而且最关键的还是训练集的收集与处理(尤其是普遍质量较差的真人训练集),我也只是在b站、civitai、NGA上学一些其他人的经验再对自己手里的训练集具体分析。

至于参数,其实我整个的训练流程都在之前的四个炼丹帖里了,你如果还有什么问题或者建议可以互相学习。

none.gif

0a2f7525

回 19楼(somesauce) 的帖子

感谢大佬的回复 我现在遇到了一个疑似过拟合的问题,输入什么tag出来的图都是训练图片的样子,现在在研究是图片的问题还是学习率的问题   

1327522.jpg

Ridley

B21F  2023-07-17 21:34
(空的)

回 20楼(0a2f7525) 的帖子

因为不了解你的训练集和训练参数,如果你降低lora权重不能解决问题,我按个人理解应该有以下几种可能:
1.训练集多样性不足(可以加入一些其他服饰或动作的图片,不一定非要是同一个人的,加入其他人物图片并与训练人物打标时区分开来就行,比如不同发色的话原人物不标记发色,其他人物标记对应发色。同时这样的“弱正则”图片要尽可能减少循环步数避免污染原人物)
2.训练集没有抠掉背景(建议用ps仔细抠掉背景,让自动打标器只识别出white background而没有blur background之类的)
3.训练集没有正确打标(如果是全靠自动打标一般情况下不会有太大问题,但还是建议手动检查一遍,去掉多余的重复性tag,更精简些)
4.网络的alpha过大(建议alpha=dim/2,如果不追求泛化性也可以更高些)
5.如果训练集过分单一也可以尝试分层训练,但不是很推荐,不如训练完再去分层控制

none.gif

0a2f7525

谢谢大佬的教导,现在回去试一下

none.gif

0a2f7525

随便问一下大佬之前那个莹的lora制作过程中也是全部扣掉背景的吗,训练集大概收集了多少图片呢

1327522.jpg

Ridley

B24F  2023-07-17 22:51
(空的)

回 23楼(0a2f7525) 的帖子

一共大概50张图,其中十张close-up头像图,头像图没有抠背景但我也尽可能把背景用相近颜色涂抹掉了,后来同样手段训练的宵宫模型效果也还不错

none.gif

shadow

B25F  2023-07-18 22:51
(南柯一梦)
想问下大佬融模有进阶技术吗,我融不出能画二次元人物服饰的真人画风模型

1327522.jpg

Ridley

B26F  2023-07-19 03:51
(空的)

回 25楼(shadow) 的帖子

lora融合的话,二次元和三次元的很难融出完美效果,影响服饰的层级多少也会影响面部和画风,但也不是不能做,多尝试几次分层融合应该也能融出来,就像我最开始做的模型就是融合了别人的二次元模型。

如果你不知道该怎么分层可以看看我https://www.blue-plus.net/read.php?tid-1864616.html转贴的那张表,把真人面部影响层和二次元身体影响层融一起,当然具体融合权重还要自己去尝试。

none.gif

OraOra

感谢分享

none.gif

shadow

B28F  2023-07-21 23:36
(南柯一梦)

回 26楼(somesauce) 的帖子

好的,多谢大佬指点,分层这东西我没接触过,我去看看。我嗯融合二次元和写实的模型最后的脸都不好看,眼睛还糊。

a16.gif

旺旺仙贝

谢谢楼主分享!!@-@

5fa6c3a9

  • «
  • 1
  • 2
  • »
  • Pages: 1/2     Go