亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

全量微調FLUX效果遠遠好于LoRA訓練,過擬合和細節問題大大減少

配置与完整实验设置

详情
  • 我还在严格测试不同的超参数,并比较每个超参数的影响,以找到最佳的工作流程
  • 到目前为止已完成16次完整的训练,现在正在完成另外8次训练
  • 我正在使用这个差但过拟合的15张图片的数据集进行实验(第四张图片)
  • 我已证明,使用更好的数据集时,效果会好很多,并能完美生成表情
  • 例如这种情况:https://www.reddit.com/r/FluxAI/comments/1ffz9uc/tried_expressions_with_flux_lora_training_with_my/
结论部分
  • 当分析结果时,微调后过拟合程度更低,泛化能力更佳,质量更佳
  • 在前两张图片中,它能够更出色地改变发色和添加胡须,这意味着它过拟合的程度更低
  • 在第三张图片中,你可以看出盔甲的质量更好,因此过拟合程度更低
  • 我注意到环境和服装的过拟合程度更小,质量更佳
这里要说说不足了啊
  • Kohya 仍然没有 FP8 训练,因此,24GB 的显卡速度会大幅下降
  • 另外,48GB 的显卡必须使用 Fused Back Pass 优化,速度会有一定下降
  • 16GB 的显卡由于没有 FP8 支持,速度下降会更严重
  • Clip-L 和 T5 的训练仍然不支持
供速参考
  • 第1级快速配置 — 使用 27.5 GB 显存,每轮时间 6.28 秒(LoRA 每轮时间 4.85 秒)
  • 第1级较慢配置 — 使用 23.1 GB 显存,每轮时间 14.12 秒(LoRA 每轮时间 4.85 秒)
  • 第1级最慢配置 — 使用 15.5 GB 显存,每轮时间 39 秒(LoRA 每轮时间 6.05 秒)
最后
  • 保存的检查点为FP16,因此大小为23.8GB(没有训练Clip-L或T5)
  • 根据Kohya的说法,应用的优化不会改变质量,因此所有配置目前都被评为第一
  • 我仍在测试这些优化是否会对质量有任何影响
  • 我仍在尝试寻找更好的超参数
  • 所有训练都在1024x1024分辨率下进行,因此降低分辨率可以提高速度,减少VRAM使用,但也会降低质量
  • 希望当FP8训练到来的时候,即使12GB的显存也能很好地进行精细调优,速度也会很快
點擊查看更多內容
TA 點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優質文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學習,寫下你的評論
感謝您的支持,我會繼續努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學

大額優惠券免費領

立即參與 放棄機會
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

舉報

0/150
提交
取消