图床项目弄了图片审查,用的NSFWJS这个项目搭建了个 api
模型处理后会返回一组数据
{
"Porn": 0.63987535238266,
"Sexy": 0.351394861936569,
"Hentai": 0.00593265052884817,
"Neutral": 0.00271736341528595,
"Drawing": 0.000079724035458639
}
怎么处理效果才比较好?目前是将 Porn 、Sexy 、Hentai 分数相加,超过 0.86 就判定违规。
大佬们有啥推荐的吗?
1
hsuvee 2024-09-02 14:01:44 +08:00
我用 aws 的 detectModeration
|
![]() |
3
supermama 2024-09-02 14:21:02 +08:00
我是用了一个 c#版本,执行效率应该比你这个快一些。
|
4
vacuitym 2024-09-02 14:31:26 +08:00
不应该加起来吧,可以 Porn 、Sexy 、Hentai 三个任一超过一个阈值就违规
|
8
740moe OP @vacuitym 不加起来的话,就得设置比较低的值才能拦截到对应的图片了。就像帖子里的数据,已经是一张很暴露的图了,可是模型才识别到"Porn": 0.63987535238266 。单独设置一个值的话误封的概率更大。
|