色情图片检测神经网络 open_nsfw
使用:
- 网络需要在图像和输出概率(评分0-1)之间过滤不适合工作的图片。评分<0.2表示图像具有较高概率是安全的。评分>0.8表明极有可能是不适合工作(NSFW)图像。
- 我们建议开发者根据用例和图像类型的不同选择合适的阈值。根据使用情况、定义以及公差的不同会产生误差。理想情况下,开发人员应该创建一个评价集,根据“什么是安全的”对他们的应用程序进行定义,然后适合ROC曲线选择一个合适的阈值。
- 结果可以通过微调你的数据/ uscase /定义NSFW的模型的改进。我们不提供任何结果的准确性保证。
- 使用者适度地结合机器学习解决方案将有助于提高性能。
模型描述:
- 我们将不适合工作的图片(NSFW)作为数据集中的积极对象,适合工作的图片作为消极对象来进行训练。所有这些被训练得图片都被打上了特定的标签。所以由于数据本身的原因,我们无法发布数据集或者其他信息。
- 我们用非常不错的名字叫“CaffeOnSpark”的架构给“Hadoop”带来深度学习算法,并且使用Spark集群来进行模型训练的实验。在此非常感谢 CaffeOnSpark 团队。
- 深度模型算法首先在 ImageNet 上生成了1000种数据集,之后我们调整不适合工作(NSFW)的数据集比例。我们使用了50 1by2的残差网络生成网络模型。模型通过 pynetbuilder 工具以及复制残余网络的方法会产生50层网络(每层网络只有一半的过滤器)。你可以从这里获取到更多关于模型产生的信息。
- 更深的网络或者具有更多过滤器的网络通常会更精确。我们使用剩余(residual)网络结构来训练模型,这样可以提供恰到好处的精确度,同样模型在运行以及内存上都能保持轻量级。
项目地址
https://github.com/yahoo/open_nsfw
相关推荐
lemonade 2020-11-10
fengzhimohan 2020-11-02
walegahaha 2020-10-20
WFRainn 2020-10-19
WhiteHacker 2020-10-14
雜貨鋪 2020-10-13
zyhzyh 2020-10-09
cherry0 2020-09-23
demm 2020-09-18
zhaoyin 2020-09-16
绝望的乐园 2020-09-02
Site 2020-08-20
CristianoJason 2020-08-19
cetrolchen 2020-08-18
walegahaha 2020-08-15
georgesale 2020-08-14
XiaotingCheng 2020-08-13
码猿同学 2020-08-07
白飞飞Alan 2020-07-29