【只认“黄色”的超级只能软件,哈哈~】
图片判断看肉色多少的~?
上网看了一些动物的照片,一只可爱的小猪~光PP的噢~结果给拉近黑名单了~可怜的猪猪
好奇,于是搜索了一些非洲人,~女黑人啊~光PP的噢~结果没有屏蔽诶~
我倒真想装一个这个玩意,拿些样本测试一下。
Jeffrey Zhao
Blog: http://jeffreyzhao.cnblogs.com
Twitter: http://twitter.com/jeffz_cn
--------------------------------------------------
From: "K.L." <xxxK....@gmail.com>
Sent: Wednesday, June 10, 2009 9:39 AM
To: "TopLanguage" <pon...@googlegroups.com>
Subject: [TL] 色情图片的图像识别是如何实现的?{图像识别}
系统工作流程图
主要技术特征:
1. 全方位防御、智能识别、主动拦截网上的色情图像以及其他不良信息,正确识别率达到国内领先、国际先进水平。
2. 独创三层过滤技术:应用层的色情图像过滤、WEB页面文字的过滤和地址域名、关键字过滤,极大的提高了拦截色情图像与不良信息的效果。
3. 与网址域名不断变化无关,与语言种类无关。
4. 控制未成年人上网、QQ、MSN及游戏的时间, 避免过度沉溺于网络,有效戒除网瘾.
5. 记录上网浏览内容、时间以及拦截色情图像频次和时间,以便管理员或家长了解用户或孩子上网情况
6. 软件内设黑、白名单,能实时拦截色情网址并自动加入黑名单网址库,且黑名单网址库保持动态更新,始终处于最佳检索状态;而对于白名单内的健康网站软件将不加拦截。
7. 高、中、低人性化级别设置,控制不同年龄人浏览网上不同内容。
8. 安全密码设置,防止非授权用户卸载或更改级别。
9. 提供在线升级,热忱解答用户咨询。
10. 全局监控,便于及时管理。
3.图像检测关键技术
色情图像检测技术目前仍然以肤色分割为基础,肤色分割模型对于处理带有肤色信息的色情图像的检出率很高,在较为严格的阀值下可以达到99%以上(不包括不含肤色信息的图像,如灰度图像等),如果不经过处理误检率(非色情图像检成色情图像)将会超过40%以上。
检出率的计算方法:
F = 正检率*色情图像比例 +(1 – 误检率)* (1–色情图像比例)
例如:
正检测率 |
90% |
误检测率 |
5% |
色情图像比例 |
1% |
检出率 |
94.95% |
正检测率 |
95% |
误检测率 |
20% |
色情图像比例 |
1% |
检出率 |
80.15% |
正检测率 |
99% |
误检测率 |
45% |
色情图像比例 |
1% |
检出率 |
55.44% |
从上表可以看出,在色情图像比例为1%的情况下,误检率对整个检测结果影响很大。因此目前国际上对色情图像识别技术的研究然在降低误检率上。
3.1图像检测模型
图像检测流程图
图形检测流程如图所示,图像检测进程从待检图像队列中获取图像数据,首先将图像尺寸做归一化处理,把宽度大于200像素的图像大小调成成为宽度为200像素的图像。然后采用区域肤色分割的方法将肤色区域和非肤色区域分离出来,将非肤色区域添黑。在对肤色区域关系进行分析后去除干扰肤色区域(类肤色背景),提取区域的数量、大小、位置、比率等特征送入已经训练好的SVM分类器中进行分类。当图像被检为色情图像后送入人脸检测器中检测为非人脸时,便确定为色情图像。
在图像变换过程中,不同尺寸的图像体现的边界细节有所不同,因此需要调整到合适的尺寸,同时将大图像调小也可以提高处理速度。
将肤色区域从图像中分离出来,肤色分割的性能直接影响到图像检测器的整体性能,这部分也是图像检测中最重要的一部分
肤色分割后可能会存在干扰背景,这时通过一定的算法去除干扰区域。
提取区域的数量、形状、位置、大小等等特征,用来描述图像。
将提取后的特征送入训练好的分类器中进行运算,得到判决结果
大幅人脸会造成肤色检测器的误判,因此通过可处理倾斜人脸的算法检测人脸,如果确定为大幅人脸,则表明不是色情图像。
3.2传统肤色分割算法的改进
图像识别仍以肤色分割为基础,颜色空间采用HSV256模型空间。
传统方式的肤色分割是以点为单位的,在色彩分布空间中,肤色区域和非肤色区域是相交的,因此传统的肤色分割在处理类肤色背景、高光失真肤色和纹理处理方面无能为力。
HSV-256空间肤色模型下的颜色分布
肤色和非肤色空间相交
目前肤色占空比仍然是色情图像分类中的一个重要特征,肤色分割器的性能直接影响到图像分类结果。
这次采用的肤色分割模型中,使用了自主研发的区域肤色分割的方法,以大块肤色形状和位置特征作为分析的依据,使用区域而不是单点作为分析的对象,通过对区域整体信息的分析确定区域为肤色的可能性。
3.3图像检测的实现
(1)不含肤色或者弱肤色的正常图像集
(2)强肤色信息的色情图像集合
(3)弱肤色信息的色情图像集合
(4)强肤色信息的正常图像集合(包含人脸)
(5)强肤色信息的正常图像集合(不包含人脸)
实验证明,分类器的性能不能直接提高图像判决率,只有先通过特征分析初步分类后再将特征相似的图像送入分类器才会有很好的效果。因此初步分类的设计和特征选取是决定判决率的根本要素。
本项目仍然采用HSV256颜色空间,由于不同的肤色样本在颜色空间的分布会有所不同,所以对于特定环境下的图像,需要采用特定图像肤色样本重新聚类得到最合适的肤色空间分布。
区域肤色分割算法图示
1.原始图像尺寸归一化 |
|
2.转换成灰度图像 |
|
3.Canny变换提取边缘 |
|
4.膨胀后相减运算 |
|
5.取得区域,去除小块,对每一块区域进行分析。 |
|
6.以其中一个区域为例 |
|
7.直接肤色分割的效果 白色为肤色区域 黄色为非肤色区域 |
|
8.把肤色区域在R-G平面上投影 |
|
9.Hough变换 |
|
10.补色 紫色区域为补色区域 |
|
11.二次肤色分割结果 白色为肤色区域 黄色为非肤色区域 |
|
12.区域合成,形态学滤波 |
|
类肤色背景和高光失真情况下的对比示例
原始图像 传统按点肤色分割 区域肤色分割
区域肤色分割的纹理消除示例
原始图像 按点肤色分割 区域肤色分割
在区域肤色分割后,某些非肤色区域具有类肤色块的特征,这些区域会影响判决结果,因此需要设计算法去除干扰区域。
上图中编号1、2、3的区域就是干扰区域。
去除干扰区域的算法仍然不太成熟,目前本项目计划采用一种重心距离比对的方法。
其中肤色重心表示计算所有肤色得到的重心,用所有肤色面积做圆,半径为r0。找到每一块区域的重心,并按照每一块区域面积做圆,半径为r1——rN。
如上图所示,计算R-r1-r0的值,估计块与肤色中心之间的距离,以确定区域的重要性。杂块消除算法会在很大程度上降低误判率,实验证明使用HSV颜色距不能达到消除杂块的目的,因此只有采用对区域形状分析的方法。目前正在研究采用对区域形状分析算法确定区域的重要性的算法,通过对区域形状距和内外角等特征确定干扰区域,例如下图的1和2就属于典型的干扰区域。
特征选取是决定判决率最关键的因素,会直接影响到判决器的性能。特征分类器使用SVM。目前实验选取的主要特征有:
1)肤色占空比
2)肤色重心
3)有效区域数量
4)最大一块区域的重心
5)最大一块区域的占空比
6)在4X4区域中的比例
当被区域肤色检测器判别图像为肤色占空比大的图像后,需要送入人脸检测器检测人脸。如果检测为大幅人脸(人脸区域占空比大于1/4),则表示图像不是色情图像;如果检测到人脸区域占空比在1/9左右,该图像为怀疑图像,这时需要对人脸的位置进行分析以确定怀疑级别。
人脸检测采用AdaBoost算法。
人脸比率0.287 人脸比率0.103
上图中,人脸比率在0.287的情况下,可以认为此图像属于正常图像,人脸比率0.103的图像需要根据人脸位置和肤色占空比进一步进行分析。
3.4判决示例
正常判决结果示例1
最终判决模块 |
结果 |
备注 |
肤色分割 |
(正常) 901031 901032 901033 901034 901035 901036 901037 901038 901039 901040 |
肤色占空小,位置特征分析 |
人脸检测 |
(正常) 901023 901024 901025 901028 901029 |
肤色占空比大,但是属于典型人脸 |
人脸位置分析 |
(可疑) 901026 901027 901030 |
在实际处理中,901026因为有手的遮挡,判决结果为低可疑级别的图像,901026和901027判决结果为高可疑级别的图像 |
正常判决结果示例2
判决模型 |
结果 |
备注 |
肤色分割 |
所有均判决为可疑级别高图像 |
位置、占空比和区域特征分析 |
正常判决结果示例3
最终判决模型 |
结果 |
备注 |
肤色分割 |
所有判决为色情图像 |
位置、占空比和区域特征分析 |
错误判决结果示例1
最终判决模型 |
结果 |
备注 |
人脸检测 |
错判决为色情图像 000063 0000173 001229 002605 |
不可识别的人脸 侧脸 不完整 遮挡 夸张化 |
肤色分割 |
错判决为色情图像 000136 |
占空比大 |
肤色分割 |
错判决为色情图像 000342 |
占空比大,图像分辨率低,纹理特征不明显 |
3.5数学模型和描述
A)图标检测器
图标检测器主要通过图像的尺寸比例对网络图像进行判别,主要目的是检测那些类似网站广告的图像,同时过滤掉太小的图像。一般地,网页上存在着大量的广告LOGO及图标。由于这些图像大多呈现为一个很窄的长条,或者图像整体的尺寸比较小,从内容上来讲一般不构成危害,因此我们在图像判断的过程中首先对这类图像做判别。
(1) 根据图像的大小判别:对图像的宽度与高度设定阈值,小于这个阈值的图像认为是属于图标一类。
。
(2) 根据图像的高度与宽度的比例判别:设定高度与宽度的比例阈值,这样可以把横向或者纵向的窄条图像筛选出来,它们一般多为网站广告之类。
;
。
。
在实践中,根据经验,我们选取阈值,。
B)文本检测器
文本检测器对网络图像进行文本/图像判别,检测由大量文本信息组成的图像,例如以图像形式存在的网络传真、网络文字广告等。
由文本组成的图像与一般的图像(连续色调图像)有着很大的不同,这主要体现在颜色的组成上。所以这里我们采用分析图像的灰度分布直方图来判别文字图像。
(1) 直方图划分
通过对图像颜色直方图的分析,发现文字图像与连续色调图像有很大不同,具有这样的特点:在灰度值较高的区域集中了大部分的能量,而在其余的灰度上近似于均匀分布。根据这一特点,选取适当的灰度值作为划分直方图的阈值,根据其前后灰度范围的能量的对比识别出文字图像。
(2) 局部信息熵
由于连续色调图像的颜色丰富而文字图像的颜色相对要单调很多,因而两者所表现出来的信息熵不同,而且直方图的局部信息熵将二者的区别表现的更加明显。选取灰度值范围,计算其直方图信息熵。实践表明,这里选比较合适。将直方图做归一化:
计算直方图局部信息熵:
将满足的图像判断为文本图像,这里同样根据识别的要求可取不同的值。对于文本图像而言,取是适当的。
(3)融合处理
作为依据颜色信息判别文本图像的结果,可以将上述两种方法得到的结果进行融合。方法如下:对选取阈值和及对选取阈值及,则定义:
定义基于颜色的文本图像识别参数:
。则当大于某一阈值参数时判决图像为文本图像。
C)颜色检测器
颜色检测器分析网络图像的颜色组成,通过建立肤色模型来区分正常图像和色情图像。
(1)模型颜色空间
通过对RGB、LUV、HSV、LHS、XYZ等颜色空间的试验比较,最终选择HSV颜色空间建立肤色模型。通常图像都可以用RGB模型表示,HSV颜色空间对颜色的描述更接近人的视觉效果,而且由RGB空间到HSV空间的转换和量化相对比较简单。
(2)肤色模型
肤色模型的主要任务是确定人的皮肤颜色在所选取的HSV颜色空间的分布情况。首先将HSV颜色空间进行量化,划分成个颜色子空间。然后通过统计分析确定皮肤颜色在这个子空间中的分布,聚类得到皮肤颜色的分布子空间集合以及的隶属度集合。
(3)图像肤色暴露程度
对任意图像,,,将每一个像素转换到HSV颜色空间并量化,得到该像素的颜色子空间标号。这样整幅图像就转化成了一个的标号点阵,,,其元素的取值范围为。统计的归一化直方图,。
(4)图像检测
利用图像肤色暴露程度区分正常图像和色情图像。可以采取两种判决方式。
硬判决。确定一个阈值,比较和进行判决:如果一幅图像满足,则判决该图像为色情图像;否则为正常图像。我们的实验结果表明,的值取在之间较为合适。
软判决。确定一个低阈值,一个高阈值,比较和这两个阈值进行判决:如果一幅图像满足,则判决该图像为色情图像;如果满足,则判决该图像为正常图像;其他情况下认为该图像为可疑图像,本检测器不做判决,送交姿态检测器。根据不同的检测率要求,各参数的设置可以相应的进行修改,在多数情况下,参数可以通过实验来确定。
d)姿态检测器
姿态检测器通过训练建立姿态特征库。对通过颜色检测器的可疑图像进行姿态分析和相似匹配,区分正常图像和色情图像。姿态检测器算法主要由小波边缘检测、图像分割、形态学滤波、形状描述和相似度匹配等几部分组成,各部分具体描述如下:
(1)小波边缘检测
传统的小波边缘检测原理是:设代表原始图像,,,,是原始影像经小波变换得到的四幅子图像,设与是双正交小波导出的一组对偶滤波器。
我们采用Daubechies-4小波基对原始图像进行塔式小波分解,得到低频子带和三个高频子带。其中,子带包含原始图像水平方向上的边缘;子带包含原始图像垂直方向上的边缘;子带包含原始图像对角线方向上的边缘。我们分别检测如上三种类型的边缘,将得到的三种类型边缘合成为一个边缘图。对子带在水平方向寻找一定邻域内的梯度向量幅度极大值点,仅保留子带的小波系数进行小波反变换,得到边缘子图。类似对子带和子带进行处理,分别得到和边缘子图。
通过颜色检测器的图像是彩色图像,而我们进行小波边缘检测时往往是对灰度图像进行处理,因此可以将彩色图像先转换成灰度图像或者直接利用彩色图像的红色通道进行处理。
(2)图像分割
为了对图像中物体的形状进行描述,就必须要从图像中分割出物体。在此,我们结合小波边缘图像和肤色模型对图像进行分割,主要从中分割出人体肤色暴露的区域。
首先,对小波边缘图像进行分析,提取最左、最右、最上、最下四个边缘点,并以此确定物体的外接矩形。
然后,擦除原彩色图像中位于物体外接矩形外的像素点。对矩形内的像素点依据肤色模型进行分割。对任意像素点,将其转换到HSV空间并量化得到量化标号。如果,则保留此像素点;否则,擦除此像素点。
这样就得到初步分割的皮肤区域图像。
(3)形态学滤波
上面产生的初步分割的皮肤区域图像往往存在很多面积很小的颗粒状和斑状噪声,这时候,就需要对它们进行滤波处理,过滤掉那些不属于物体区域的噪声像素,同时有效保留属于物体区域的那些像素。常用的滤波方法,如低通、高通、平滑等,在过滤掉噪声的同时使原来的有用信息也产生了变化。为此,我们采用数学形态学来对初步分割的图像进行处理。
根据我们的应用要求和实验比较,对初步分割的皮肤区域图像,我们采用形态学腐蚀算子进行处理。采用结构元素为的矩形模板。对腐蚀运算后的图像,由于其仍然是一幅彩色图像,因此需要先将其转换为灰度图像,然后进行区域描述。
(4)形状描述
在得到物体的区域图像之后,如何描述这幅图像的形状有多种形式,如区域形状的数字度量、傅立叶描述、矩描述和拓扑描述。在1962年,M.K.Hu证明了有7个不变矩与图像的平移、旋转和比例尺变化无关,被称为Hu矩,它们对图像的形状描述是十分有用的。
我们采用图像的二阶至五阶归一化中心矩的18个特征值和Hu矩的7个特征值共25个特征值来描述一幅分割以后的皮肤区域图像的形状特征。
(5)相似度匹配
通常我们得到的图像特征数据都是以向量的形式存在的,如何由这些向量来计算它们的相似度,目前也有一些研究结果,并直接运用在检索算法和系统中。Simone Santini & Raesh Jain对相似度匹配计算作了全面的考查,但目前关于这些算法的有效性还没有多少试验报道,大多数系统仍然采用向量计算。
我们采用加权Euclidean距离来进行相似度度量。
有报道称这软件已经由专家们以专业、严格的标准评测过了。
http://www.caigou2003.com.cn/gpnews/buwei/200801/20080128143440_208521.html
现场测试集中评定
此次采购,信息产业部采取了竞争性谈判的方式,该采购方式的使用,有一个特殊的环节就是资格预审,只有通过此关口的供应商才有资格进入谈判环节。
为了保证资格预审的有效性,为了保证入围谈判的供应商质量,信息产业部将委托专业的测评机构组织现场测评会,凡是欲参与竞争的供应商必须提供样品、
说明书等产品,现场演示过滤软件的过滤效果、拦截速度等功能,并对测试内容和相关管理规定进行现场解释,信息产业部将组织相关测评专家形成测评小组,进
行现场监督。
测评会后,测试机构将严格根据《基于PC中端的互联网内容过滤软件技术要求》、《基于PC中端的互联网内容过滤软件测试方法》等文件的规定,按照公
平、公开的原则形成测评报告。
随后、测评专家组成员将根据测评报告,对产品的主要性能、硬件和软件配置、应用情况等内容进行评定,评定的结果不但将成为信息产业部确定候选供应商
的重要依据,而且也是谈判的重要依据之一。
来自国内一个软件开发公司的工作人员表示,召开测评会,公开审查供应商资格,更加有利于企业之间公平、公开的竞争。
信息产业部相关负责人表示:“通过严密的组织、专业的评价,不但将在一定程度上保证产品的质量、性能,而且也将提高入围供应商质量和谈判效率”。
On 6月10日, 上午10时35分, Tiny fool <tinyf...@gmail.com> wrote:
> 网上有他们的《绿色上网过滤软件产品一年使用权及相关服务采购项目 -谈判响应书
> 》,11M,最后一部分是关于怎么实现的,我贴给你们看看吧,可惜里面的黄图,这样贴不出来,哈哈,技术我觉得很不靠谱,这么研究研究到还可以,实做就是扯淡
>
> *系统工作流程图*
>
> *主要技术特征:*
>
> 1. 全方位防御、智能识别、主动拦截网上的色情图像以及其他不良信息,正确识别率达到国内领先、国际先进水平。
>
> 2. 独创三层过滤技术:应用层的色情图像过滤、WEB页面文字的过滤和地址域名、关键字过滤,极大的提高了拦截色情图像与不良信息的效果。
>
> 3. 与网址域名不断变化无关,与语言种类无关。
>
> 4. 控制未成年人上网、QQ、MSN及游戏的时间, 避免过度沉溺于网络,有效戒除网瘾.
>
> 5. 记录上网浏览内容、时间以及拦截色情图像频次和时间,以便管理员或家长了解用户或孩子上网情况
>
> 6.
> 软件内设黑、白名单,能实时拦截色情网址并自动加入黑名单网址库,且黑名单网址库保持动态更新,始终处于最佳检索状态;而对于白名单内的健康网站软件将不加拦截 。
>
> 7. 高、中、低人性化级别设置,控制不同年龄人浏览网上不同内容。
>
> 8. 安全密码设置,防止非授权用户卸载或更改级别。
>
> 9. 提供在线升级,热忱解答用户咨询。
>
> 10. 全局监控,便于及时管理。
>
> **
>
> *3.图像检测关键技术*
>
> 色情图像检测技术目前仍然以肤色分割为基础,肤色分割模型对于处理带有肤色信息的色情图像的检出率很高,在较为严格的阀值下可以达到99%以上(不包括不含肤色 信息的图像,如灰度图像等),如果不经过处理误检率(非色情图像检成色情图像)将会超过40%以上。
>
> 检出率的计算方法:
>
> F = 正检率*色情图像比例 +(1 - 误检率)* (1-色情图像比例)
> **
>
> **
>
> *3.1图像检测模型*
>
> 图像检测流程图
>
> 图形检测流程如图所示,图像检测进程从待检图像队列中获取图像数据,首先将图像尺寸做归一化处理,把宽度大于200像素的图像大小调成成为宽度为200像素的图 像。然后采用区域肤色分割的方法将肤色区域和非肤色区域分离出来,将非肤色区域添黑。在对肤色区域关系进行分析后去除干扰肤色区域(类肤色背景),提取区域的数 量、大小、位置、比率等特征送入已经训练好的SVM分类器中进行分类。当图像被检为色情图像后送入人脸检测器中检测为非人脸时,便确定为色情图像。
>
> - 图像尺寸归一化
>
> 在图像变换过程中,不同尺寸的图像体现的边界细节有所不同,因此需要调整到合适的尺寸,同时将大图像调小也可以提高处理速度。
>
> - 区域肤色分割
>
> 将肤色区域从图像中分离出来,肤色分割的性能直接影响到图像检测器的整体性能,这部分也是图像检测中最重要的一部分
>
> - 干扰区域去除
>
> 肤色分割后可能会存在干扰背景,这时通过一定的算法去除干扰区域。
>
> - 区域特征提取
>
> 提取区域的数量、形状、位置、大小等等特征,用来描述图像。
>
> - 特征判决
>
> 将提取后的特征送入训练好的分类器中进行运算,得到判决结果
>
> - 人脸检测
>
> 大幅人脸会造成肤色检测器的误判,因此通过可处理倾斜人脸的算法检测人脸,如果确定为大幅人脸,则表明不是色情图像。
>
> *3.2传统肤色分割算法的改进*
>
> 图像识别仍以肤色分割为基础,颜色空间采用HSV256模型空间。
>
> 传统方式的肤色分割是以点为单位的,在色彩分布空间中,肤色区域和非肤色区域是相交的,因此传统的肤色分割在处理类肤色背景、高光失真肤色和纹理处理方面无能为 力。
>
> *HSV-256空间肤色模型下的颜色分布*
>
> *肤色和非肤色空间相交*
>
> 目前肤色占空比仍然是色情图像分类中的一个重要特征,肤色分割器的性能直接影响到图像分类结果。
>
> 这次采用的肤色分割模型中,使用了自主研发的区域肤色分割的方法,以大块肤色形状和位置特征作为分析的依据,使用区域而不是单点作为分析的对象,通过对区域整体 信息的分析确定区域为肤色的可能性。
>
> *3.3图像检测的实现*
>
> 1. *人工分类*
>
> (1)不含肤色或者弱肤色的正常图像集
>
> (2)强肤色信息的色情图像集合
>
> (3)弱肤色信息的色情图像集合
>
> (4)强肤色信息的正常图像集合(包含人脸)
>
> (5)强肤色信息的正常图像集合(不包含人脸)
>
> 实验证明,分类器的性能不能直接提高图像判决率,只有先通过特征分析初步分类后再将特征相似的图像送入分类器才会有很好的效果。因此初步分类的设计和特征选取是 决定判决率的根本要素。
>
> 1. *肤色模型重建*
>
> 本项目仍然采用HSV256颜色空间,由于不同的肤色样本在颜色空间的分布会有所不同,所以对于特定环境下的图像,需要采用特定图像肤色样本重新聚类得到最合适 的肤色空间分布。
>
> 1. *区域肤色分割模型*
>
> **
>
> *区域肤色分割算法图示*
>
> 1.原始图像尺寸归一化
>
> 2.转换成灰度图像
>
> 3.Canny变换提取边缘
>
> 4.膨胀后相减运算
>
> 5.取得区域,去除小块,对每一块区域进行分析。
>
> 6.以其中一个区域为例
>
> 7.直接肤色分割的效果
>
> 白色为肤色区域
>
> 黄色为非肤色区域
>
> 8.把肤色区域在R-G平面上投影
>
> 9.Hough变换
>
> 10.补色
>
> 紫色区域为补色区域
>
> 11.二次肤色分割结果
>
> 白色为肤色区域
>
> 黄色为非肤色区域
>
> 12.区域合成,形态学滤波
>
> **
>
> **
>
> **
>
> *类肤色背景和高光失真情况下的对比示例*
>
> 原始图像 传统按点肤色分割 区域肤色分割
>
> *区域肤色分割的纹理消除示例*
>
> 原始图像 按点肤色分割 区域肤色分割
>
> 1. *图像杂块消除技术*
>
> 在区域肤色分割后,某些非肤色区域具有类肤色块的特征,这些区域会影响判决结果,因此需要设计算法去除干扰区域。
>
> 上图中编号1、2、3的区域就是干扰区域。
>
> 去除干扰区域的算法仍然不太成熟,目前本项目计划采用一种重心距离比对的方法。
>
> 其中肤色重心表示计算所有肤色得到的重心,用所有肤色面积做圆,半径为r0。找到每一块区域的重心,并按照每一块区域面积做圆,半径为r1----rN。
>
> 如上图所示,计算R-r1-r0的值,估计块与肤色中心之间的距离,以确定区域的重要性。杂块消除算法会在很大程度上降低误判率,实验证明使用HSV颜色距不能 达到消除杂块的目的,因此只有采用对区域形状分析的方法。目前正在研究采用对区域形状分析算法确定区域的重要性的算法,通过对区域形状距和内外角等特征确定干扰 区域,例如下图的1和2就属于典型的干扰区域。
>
> 1. *特征选取和分类器的设计*
>
> 特征选取是决定判决率最关键的因素,会直接影响到判决器的性能。特征分类器使用SVM。目前实验选取的主要特征有:
>
> 1)肤色占空比
>
> 2)肤色重心
>
> 3)有效区域数量
>
> 4)最大一块区域的重心
>
> 5)最大一块区域的占空比
>
> 6)在4X4区域中的比例
>
> 1. *人脸检测*
>
> 当被区域肤色检测器判别图像为肤色占空比大的图像后,需要送入人脸检测器检测人脸。如果检测为大幅人脸(人脸区域占空比大于1/4),则表示图像不是色情图像; 如果检测到人脸区域占空比在1/9左右,该图像为怀疑图像,这时需要对人脸的位置进行分析以确定怀疑级别。
>
> 人脸检测采用AdaBoost算法。
>
> 人脸比率0.287 人脸比率0.103
>
> 上图中,人脸比率在0.287的情况下,可以认为此图像属于正常图像,人脸比率0.103的图像需要根据人脸位置和肤色占空比进一步进行分析。
>
> *3.4判决示例*
>
> *正常判决结果示例1*
>
> **
>
> **
> *正常判决结果示例2*
>
> 判决模型
>
> 结果
>
> 备注
>
> 肤色分割
>
> 所有均判决为可疑级别高图像
>
> 位置、占空比和区域特征分析
>
> **
>
> *正常判决结果示例3*
>
> 最终判决模型
>
> 结果
>
> 备注
>
> 肤色分割
>
> 所有判决为色情图像
>
> 位置、占空比和区域特征分析
>
> *错误判决结果示例1*
>
> 最终判决模型
>
> 结果
>
> 备注
>
> 人脸检测
>
> 错判决为色情图像
>
> 000063
>
> 0000173
>
> 001229
>
> 002605
>
> 不可识别的人脸
>
> 侧脸
>
> 不完整
>
> 遮挡
>
> 夸张化
>
> 肤色分割
>
> 错判决为色情图像
>
> 000136
>
> 占空比大
>
> 肤色分割
>
> 错判决为色情图像
>
> 000342
>
> 占空比大,图像分辨率低,纹理特征不明显
>
> *3.5数学模型和描述*
>
> *A)**图标检测器*
>
> 图标检测器主要通过图像的尺寸比例对网络图像进行判别,主要目的是检测那些类似网站广告的图像,同时过滤掉太小的图像。一般地,网页上存在着大量的广告LOGO
> 及图标。由于这些图像大多呈现为一个很窄的长条,或者图像整体的尺寸比较小,从内容上来讲一般不构成危害,因此我们在图像判断的过程中首先对这类图像做判别。
>
> (1) 根据图像的大小判别:对图像的宽度与高度设定阈值,小于这个阈值的图像认为是属于图标一类。
>
> 。
>
> (2) 根据图像的高度与宽度的比例判别:设定高度与宽度的比例阈值,这样可以把横向或者纵向的窄条图像筛选出来,它们一般多为网站广告之类。
>
> ;
>
> 。
>
> 。
>
> 在实践中,根据经验,我们选取阈值,。
>
> *B)**文本检测器*
>
> 文本检测器对网络图像进行文本/图像判别,检测由大量文本信息组成的图像,例如以图像形式存在的网络传真、网络文字广告等。
>
> 由文本组成的图像与一般的图像(连续色调图像)有着很大的不同,这主要体现在颜色的组成上。所以这里我们采用分析图像的灰度分布直方图来判别文字图像。
>
> (1) 直方图划分
>
> 通过对图像颜色直方图的分析,发现文字图像与连续色调图像有很大不同,具有这样的特点:在灰度值较高的区域集中了大部分的能量,而在其余的灰度上近似于均匀分布 。根据这一特点,选取适当的灰度值作为划分直方图的阈值,根据其前后灰度范围的能量的对比识别出文字图像。
>
> (2) 局部信息熵
>
> 由于连续色调图像的颜色丰富而文字图像的颜色相对要单调很多,因而两者所表现出来的信息熵不同,
> 而且直方图的局部信息熵将二者的区别表现的更加明显。选取灰度值范围,计算其直方图信息熵。实践表明,这里选比较合适。将直方图做归一化:
>
> 计算直方图局部信息熵:
>
> 将满足的图像判断为文本图像,这里同样根据识别的要求可取不同的值。对于文本图像而言,取是适当的。
>
> (3)融合处理
>
> 作为依据颜色信息判别文本图像的结果,可以将上述两种方法得到的结果进行融合。方法如下:对选取阈值和及对选取阈值及,则定义:
>
> 定义基于颜色的文本图像识别参数:
>
> 。则当大于某一阈值参数时判决图像为文本图像。
>
> **
>
> *C)**颜色检测器*
>
> 颜色检测器分析网络图像的颜色组成,通过建立肤色模型来区分正常图像和色情图像。
>
> (1)模型颜色空间
>
> 通过对RGB、LUV、HSV、LHS、XYZ等颜色空间的试验比较,最终选择HSV颜色空间建立肤色模型。通常图像都可以用RGB模型表示,HSV
> 颜色空间对颜色的描述更接近人的视觉效果,而且由RGB空间到HSV空间的转换和量化相对比较简单。
>
> (2)肤色模型
>
> 肤色模型的主要任务是确定人的皮肤颜色在所选取的HSV颜色空间的分布情况。首先将HSV
> 颜色空间进行量化,划分成个颜色子空间。然后通过统计分析确定皮肤颜色在这个子空间中的分布,聚类得到皮肤颜色的分布子空间集合以及的隶属度集合。
>
> (3)图像肤色暴露程度
>
> 对任意图像,,,将每一个像素转换到HSV
> 颜色空间并量化,得到该像素的颜色子空间标号。这样整幅图像就转化成了一个的标号点阵,,,其元素的取值范围为。统计的归一化直方图,。
>
> (4)图像检测
>
> 利用图像肤色暴露程度区分正常图像和色情图像。可以采取两种判决方式。
>
> 硬判决。确定一个阈值,比较和进行判决:如果一幅图像满足,则判决该图像为色情图像;否则为正常图像。我们的实验结果表明,的值取在之间较为合适。
>
> 软判决。确定一个低阈值,一个高阈值,比较和这两个阈值进行判决:如果一幅图像满足,则判决该图像为色情图像;如果满足,则判决该图像为正常图像;其他情况下认 为该图像为可疑图像,本检测器不做判决,送交姿态检测器。根据不同的检测率要求,各参数的设置可以相应的进行修改,在多数情况下,参数可以通过实验来确定。
>
> *d)姿态检测器*
>
> 姿态检测器通过训练建立姿态特征库。对通过颜色检测器的可疑图像进行姿态分析和相似匹配,区分正常图像和色情图像。姿态检测器算法主要由小波边缘检测、图像分割 、形态学滤波、形状描述和相似度匹配等几部分组成,各部分具体描述如下:
>
> (1)小波边缘检测
>
> 传统的小波边缘检测原理是:设代表原始图像,,,,是原始影像经小波变换得到的四幅子图像,设与是双正交小波导出的一组对偶滤波器。
>
> 我们采用Daubechies-4小波基对原始图像进行塔式小波分解,得到低频子带和三个高频子带。其中,子带包含原始图像水平方向上的边缘;子带包含原始图像 垂直方向上的边缘;子带包含原始图像对角线方向上的边缘。我们分别检测如上三种类型的边缘,将得到的三种类型边缘合成为一个边缘图。对子带在水平方向寻找一定邻 域内的梯度向量幅度极大值点,仅保留子带的小波系数进行小波反变换,得到边缘子图。类似对子带和子带进行处理,分别得到和边缘子图。
>
> 通过颜色检测器的图像是彩色图像,而我们进行小波边缘检测时往往是对灰度图像进行处理,因此可以将彩色图像先转换成灰度图像或者直接利用彩色图像的红色通道进行 处理。
>
> (2)图像分割
>
> 为了对图像中物体的形状进行描述,就必须要从图像中分割出物体。在此,我们结合小波边缘图像和肤色模型对图像进行分割,主要从中分割出人体肤色暴露的区域。
>
> 首先,对小波边缘图像进行分析,提取最左、最右、最上、最下四个边缘点,并以此确定物体的外接矩形。
>
> 然后,擦除原彩色图像中位于物体外接矩形外的像素点。对矩形内的像素点依据肤色模型进行分割。对任意像素点,将其转换到HSV空间并量化得到量化标号。如果,则 保留此像素点;否则,擦除此像素点。
>
> 这样就得到初步分割的皮肤区域图像。
>
> (3)形态学滤波
>
> 上面产生的初步分割的皮肤区域图像往往存在很多面积很小的颗粒状和斑状噪声,这时候,就需要对它们进行滤波处理,过滤掉那些不属于物体区域的噪声像素,同时有效 保留属于物体区域的那些像素。常用的滤波方法,如低通、高通、平滑等,在过滤掉噪声的同时使原来的有用信息也产生了变化。为此,我们采用数学形态学来对初步分割 的图像进行处理。
>
> 根据我们的应用要求和实验比较,对初步分割的皮肤区域图像,我们采用形态学腐蚀算子进行处理。采用结构元素为的矩形模板。对腐蚀运算后的图像,由于其仍然是一幅 彩色图像,因此需要先将其转换为灰度图像,然后进行区域描述。
>
> (4)形状描述
>
> 在得到物体的区域图像之后,如何描述这幅图像的形状有多种形式,如区域形状的数字度量、傅立叶描述、矩描述和拓扑描述。在1962年,M.K.Hu
> 证明了有7个不变矩与图像的平移、旋转和比例尺变化无关,被称为Hu矩,它们对图像的形状描述是十分有用的。
>
> 我们采用图像的二阶至五阶归一化中心矩的18个特征值和Hu矩的7个特征值共25个特征值来描述一幅分割以后的皮肤区域图像的形状特征。
>
> (5)相似度匹配
>
> 通常我们得到的图像特征数据都是以向量的形式存在的,如何由这些向量来计算它们的相似度,目前也有一些研究结果,并直接运用在检索算法和系统中。Simone
> Santini & Raesh Jain对相似度匹配计算作了全面的考查,但目前关于这些算法的有效性还没有多少试验报道,大多数系统仍然采用向量计算。
>
> 我们采用加权Euclidean距离来进行相似度度量。
>
> 2009/6/10 jiang li <li.jian...@gmail.com>
>
> > 据说是定期的截屏,然后拿SVM做图像识别。
>
> > 2009/6/10 K.L. <xxxK.L....@gmail.com>
>
> > 最近政府为我们采购的软件有个有趣的图像过滤功能,下面是来自网友的一种猜测:
>
> >> 【只认"黄色"的超级只能软件,哈哈~】
> >> 图片判断看肉色多少的~?
> >> 上网看了一些动物的照片,一只可爱的小猪~光PP的噢~结果给拉近黑名单了~可怜的猪猪
> >> 好奇,于是搜索了一些非洲人,~女黑人啊~光PP的噢~结果没有屏蔽诶~
>
> >> 我倒真想装一个这个玩意,拿些样本测试一下。
>
> --
> --------------
> Gmail: tinyf...@gmail.com
> Gtalk: tinyf...@gmail.com
最简单的结构可以是这样的:
训练样本 <-- 特征提取<-- 噪音滤波 <-- 基于色彩的图像分割 <-- 若干色情图像集
| | /|\
| |
|---------------------- 待测试的图像集
\|/ \|/
神经网络 待测试的样本
| |
| |
| \|/
--> 训练后的神经网络 --> 最终判决 --> 色情图像? --> Post-processing
其实最终的过滤效果很大程度上取决于色情图像的训练集和特征提取方法,把猪识别成色情那说明他还是有问题的。不过,现在识别的技术已经比较成熟了,不仅限于色情过滤,还包括视觉识别、声音识别、石油探点估计等等都可以归于模式识别这一类。训练的过程是非常痛苦的,但是训练完成后的网络的识别效率却是非常高的。
感兴趣的朋友可以看看以下的页面,上面提供的Demo图片是非常有意思的:
http://pascallin.ecs.soton.ac.uk/challenges/VOC/voc2009/index.html
Sincerely,
2009/6/10 Tiny fool <tiny...@gmail.com>:
> (<s
--
Bryan Zhao, Algorithm Researcher
Huakong Graphics Technology CO,. LTD.
Mobile: +86-15928632615
Office: +86-(0)28-883370917
Email: ioce...@gmail.com
Home: http://www.bryanzhao.cn
2009/6/10 Kenny Yuan <yuank...@gmail.com>:
--
以上内容完全是复制粘贴,本人并不明白其意思,故本人不对以上内容负法律责任,请不要跨省追捕。要详查请自己联系原作者,谢谢!
Bearice@Guilin, Guangxi, China
一头宅熊、坚定的反Microsoft主义者、开源支持者、P2P拥护者;
Google粉,FF粉,桂林米粉;翻墙运动爱好者,以及アナキズム;马勒戈壁驻桂办事处干事;最近添加眼镜属性(据说原因是很萌)。
On 6月10日, 下午4时03分, Bearice Ren <bear...@gmail.com> wrote:
> 其实绿坝的官方英文称号是“Kingway KillPorn” ,来源是安装程序中某文件。
>
> 2009/6/10 Kenny Yuan <yuankain...@gmail.com>:
On 6月10日, 下午4时03分, Bearice Ren <bear...@gmail.com> wrote:
> 其实绿坝的官方英文称号是“Kingway KillPorn” ,来源是安装程序中某文件。
>
> 2009/6/10 Kenny Yuan <yuankain...@gmail.com>:
2009/6/11 Mikster.Z <china...@gmail.com>:
>> > F = 正检率*色情图像比例 +(1 - 误检率)* (1-色情图像比例)
>> > 其中肤色重心表示计算所有肤色得到的重心,用所有肤色面积做圆,半径为r0。找到每一块区域的重心,并按照每一块区域面积做圆,半径为r1----rN。
--
wing
wing9...@gmail.com
Hope is a good thing, maybe the best of things.
On 6月11日, 下午7时54分, wing <wing922w...@gmail.com> wrote:
> 我和这位兄弟想一块了,当年国家反低俗,有位一起的兄弟就想搞个反低俗网站,把低俗站点列表出来,
> 还给出低俗等级和低俗举报,其实说白了,就是打着反低俗的旗号,做个低俗门户,哈哈,这个色情
> 图片拦截和这差不多,这东西离技术成熟还远着,真要用上,肯定要AI的帮助,找个人来判断色情,
> 都要看几眼,何况机器?
>
> 2009/6/11 Mikster.Z <chinamix...@gmail.com>:
>
> > 原则上说,可以反向成为一个色情图片提取器.....
>
> > 2009/6/10 Bryan Zhao <iocea...@gmail.com>
>
> >> 这是一种复合了图像处理和模式识别两种技术的一种应用,其实原理上来说并不复杂。
>
> >> 最简单的结构可以是这样的:
>
> >> 训练样本 <-- 特征提取<-- 噪音滤波 <-- 基于色彩的图像分割 <-- 若干色情图像集
> >> | | /|\
> >> | |
> >> |---------------------- 待测试的图像集
> >> \|/ \|/
> >> 神经网络 待测试的样本
> >> | |
> >> | |
> >> | \|/
> >> --> 训练后的神经网络 --> 最终判决 --> 色情图像? --> Post-processing
>
> >> 其实最终的过滤效果很大程度上取决于色情图像的训练集和特征提取方法,把猪识别成色情那说明他还是有问题的。不过,现在识别的技术已经比较成熟了,不仅限于色情过滤,还包括视觉识别、声音识别、石油探点估计等等都可以归于模式识别这一类。训练的过程是非常痛苦的,但是训练完成后的网络的识别效率却是非常高的。
>
> >> 感兴趣的朋友可以看看以下的页面,上面提供的Demo图片是非常有意思的:
>
> >>http://pascallin.ecs.soton.ac.uk/challenges/VOC/voc2009/index.html
>
> >> Sincerely,
>
> >> 2009/6/10 Tiny fool <tinyf...@gmail.com>:
> ...
>
> 阅读更多 >>
流氓不可以流氓到这种流氓程度
http://robbin.javaeye.com/blog/406125?page=2#comments
绿坝-花季护航软件技术分析
https://docs.google.com/View?id=afk7vnz54wt_12f8jzj9gw
呵呵.......不够智能呀....黄色并不一定‘黄’.......