1
Muniesa 16 小时 15 分钟前
动漫直接用光辉模型啊,自己训练当然复杂
|
3
linch97 15 小时 43 分钟前
2025 年了怎么还在用 sd1.5 ,社区模型选 noob ,闭源付费的直接用 nai ,别折腾 sd1.5 了
|
4
Muniesa 15 小时 41 分钟前
|
6
love060701 15 小时 37 分钟前
开源用 Flux 、SDXL 微调过的模型,闭源用 nano banana 、即梦 4.0 ,SD 已经彻底被淘汰了
|
8
linch97 15 小时 34 分钟前
@iixy #5 别看过时教程了,跑二次元直接选 noob ,是 sdxl 架构,基于 illustrious xl 0.1 训练的,就上楼上提的光辉。训练 lora 的要点和 sd1.5 基本互通。
不想自己折腾开源模型就付费玩 nai ,上限和下限都更高,只是没那么自由 |
10
jifengg 15 小时 15 分钟前
如果回 comfyui ,建议可以试试 qwen-image-edit-2509 ,可以先在 https://chat.qwen.ai/ 这里体验一下。
|
11
sairoa 15 小时 13 分钟前
听楼上的用基于光辉的微调模型,然后选个作品多画风喜欢的画师,加进提示词里,然后角色名称就行,画师和角色提示词参考 danbooru ,目前来看除非特别新或特别冷门的角色,都直接出不用 lora 。
|
13
rxmt 14 小时 57 分钟前
我支撑设计团队用各种模型,不懂设计和视觉,单纯讨论一下。为啥现在还会用 sd1.5 做?是因为硬件跟不上么。目前我能接到的需求,基本都是 flux 系列、qwen-image 系列,做 lora 、工作流以及调上下文,另外 nano-banana 这种会找接口糊 web ui 出来。
感觉 sd1.5 比较过时了,模型能力可能也比较弱,op 试试更新的? |
14
beefhotpot 14 小时 56 分钟前
有很多网站支持在线训练模型的,甚至你想训练的模型已经有了,搜下就有
|
16
haoooooooo 14 小时 40 分钟前
SD 模型现在已经落后太多了
|
17
clementewy 14 小时 30 分钟前
1:1 复刻 只有自己炼了
|
18
rxmt 14 小时 29 分钟前
@iixy 奥奥,我是这么理解的,每个模型都有不同的特性,比如:sd 系列的提示词写法简单说是 1 个词 1 个词的,根据模型本身、lora 触发词等设计,模型对特定词语的遵循性更强(包括正向以及反向),对提示词中的一些细节反而不那么敏感; flux 系列则会更遵循生图的提示词,在训练的时候提示词编写特点就变成了用简短的白话或者词句描述图像内容,素材集特点也会改变,生图的时候对提示词遵循更加严格,而模型本身的规则弱化了一些。我表达的不太专业可能。。
关于干扰因素和花里胡哨,我可能有点不认可,模型本身的性能会限制发挥,还原性或者说角色一致性看能也会差。换新模型,考验的是摸索提示词技巧的能力,性能更好的模型其实一致性能力上限或更高。举个我遇到的问题:我有一段时间想要做一种毛绒绒质感的卡通形象,但是 sd15 ,sdxl 出来的角色边缘效果很糊,一些特点(高矮胖瘦、五官尺寸等等)还原的有偏差。但是尝试性能更好的模型,往往摸索后就能解决。 如果 op 有精力的话可以尝试,细节要求不高或者对这块投入的精力有限还是在 sd15 上做也没太大问题,这种效果评估多少还是比较主观的。 |
20
FireKey 13 小时 50 分钟前
先去 c 站找找大佬们训练的 lora,大部分角色是有的,省了重复造轮子的功夫.动漫风目前最好的是 illustrious 模型,搜索的时候把这个筛选项选上,一般训练出来的模型质量都不差.
炼丹的话还原其实不是难事,批次多些总有满意的.出图我建议自己写个脚本工具,根据自己提供的词轮流生图,总有满意的.我一般挂个一晚上能生成千八百张图,然后在自己挑选满意的图片保存. |
21
darksword21 PRO SD1.5 早淘汰了
|