DPO (Direct Preference Optimization) LoRA for XL and 1.5 - OpenRail++

SDXL - V1.0
SD 1.5 - V1.0
最后更新:2023-12-24 22:51:07
E
创作
4.0K
收藏
10
下载
812
来源:
类型:
LORA
基础模型:
SDXL 1.0
标签:
触发词:
许可范围:
创作许可范围
在线生图
进行融合
允许下载
商业许可范围
生成图片可出售或用于商业目的
允许模型转售或融合后出售
模型参数:
评价:
5
5
共 0 条评论
29
0