您现在的位置是:主页 > 数据库技术 > 数据库技术

如何使用NSFW尝试一下图片鉴黄

IDCBT2022-01-07服务器技术人已围观

简介本篇文章为大家展示了如何使用NSFW尝试一下图片鉴黄,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。 NSFW 开始之前了解首先要先了解

本篇文章为大家展示了如何使用NSFW尝试一下图片鉴黄,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

NSFW

开始之前了解首先要先了解一下「NSFW」,「NSFW」是(Not Safe For Work)的意思,不适宜工作场所。(嗯~也就是说不适合工作的时候观看...) 是由yahoo开源的一套鉴黄的模型。
https://github.com/yahoo/open_nsfw
使用Caffe模型训练而来,主要是针对恐怖,血腥,色情等图片进行鉴别。

 快速开始

项目的markdown中说明了使用方式,非常简单的Docker一键启动。大家可以去github直接查看使用方式。

docker build -t caffe:cpu https://raw.githubusercontent.com/BVLC/caffe/master/docker/cpu/Dockerfile
 

嗯...好吧,无法访问。给出了一个·假地址·。那么只能选择其他的方案了。
自行安装失败...Caffe环境没有安装成功,国外的环境基本都是Ubuntu,而国内的都是CentOS。尝试N次。放弃!
后来发现Tensorflow-nsfw的版本。

「https://github.com/mdietrichstein/tensorflow-open_nsfw」

当前支持python3.6 与 tensorflow 1.12。已经通过相关测试,其他版本请慎重测试。尽量选择相同版本。
下载完成环境正常的话直接可以通过

python classify_nsfw.py -m data/open_nsfw-weights.npy test.jpg

进行测试。「注意:当前仅支持jpeg格式图片」

Results for 'test.jpg'	SFW score:	0.9355766177177429	NSFW score:	0.06442338228225708
 

NSFW score 就是识别出不适合于工作场景的分值。总分为10分,分值越高,表示该图片越不适合于工作场景。

 测试

说实话图片还真是难找,特别是对我,完全就找不到哪里的图片能让分值变成8分以上~ 利用搜索引擎找了几张图片,个人觉得应该要8分以上了。但是结果...

苍老师




结果分值

但是计算结果仍是差强人意!

上述内容就是如何使用NSFW尝试一下图片鉴黄,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注IDCBT数据库频道。

标签:

很赞哦! ()

本栏推荐