》原理曾经的博客中已经有对meanshift原理的解释,这里就不啰嗦了。国外的资料看这:http://people.csail.mit.edu/sparis/#cvpr07

》源代码

核心代码(參考网络)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
//============================Meanshift==============================//
void MyClustering::MeanShiftImg(IplImage
* src , IplImage * dst , 
float r
int Nmin
,
int Ncon
)
{
    int i
, j , p ,k=0,run_meanshift_slec_number=0;
    int pNmin;                              //mean
shift产生的特征的搜索框内的特征数
    IplImage
* temp , * gray;                       
//转换到Luv空间的图像
    CvMat
* distance , * result , *mask;                
//
    CvMat
* temp_mat ,*temp_mat_sub ,*temp_mat_sub2 ,* final_class_mat;         
//Luv空间的图像到矩阵,图像矩阵与随机选择点之差。
    CvMat
* cn ,* cn1 , * cn2 , * cn3;
    double /*covar_img[3]
,*/
 avg_img[3];       //图像的协方差主对角线上的元素和,各个通道的均值
    double r1;          //搜索半径
    int temp_number;
    meanshiftpoint
meanpoint[25];       
//存储随机产生的25点
    CvScalar   
cvscalar1,cvscalar2;
    int order[25];
    Feature
feature[100];           
//特征
    double  shiftor;
    CvMemStorage
* storage=NULL;
    CvSeq
* seq=0 , * temp_seq=0 , *prev_seq;
//---------------------------------------------RGB
to Luv空间,初始化----------------------------------------------
    temp           
=   cvCreateImage(cvSize(src->width,src->height),IPL_DEPTH_8U, src->nChannels);
    gray           
=   cvCreateImage(cvSize(src->width,src->height),IPL_DEPTH_8U, 1);
    temp_mat       
=   cvCreateMat(src->height,src->width,CV_8UC3);
    final_class_mat
=   cvCreateMat(src->height,src->width,CV_8UC3);
    mask           
=   cvCloneMat(temp_mat);
    temp_mat_sub   
=   cvCreateMat(src->height,src->width,CV_32FC3);
    temp_mat_sub2  
=   cvCreateMat(src->height,src->width,CV_32FC3);
    cvZero(temp);
    cvCvtColor(src,temp,CV_RGB2Luv);                    //RGB
to Luv空间
    distance       
=   cvCreateMat(src->height,src->width,CV_32FC1);
    result         
=   cvCreateMat(src->height,src->width,CV_8UC1);
    cvConvert(temp,temp_mat);                           //IplImage
to Mat
    cn 
=   cvCreateMat(src->height,src->width,CV_32FC1);
    cn1
=   cvCloneMat(cn);
    cn2
=   cvCloneMat(cn);
    cn3
=   cvCloneMat(cn);
    storage
= cvCreateMemStorage(0);
//-------------------------------------------计算搜索窗体半径
r --------------------------------------------
    if(r!=NULL)
        r1=r;
    else
    {
        cvscalar1  
=   cvSum(temp_mat);
        avg_img[0] 
=   cvscalar1.val[0]/(src->width * src->height);
        avg_img[1] 
=   cvscalar1.val[1]/(src->width * src->height);
        avg_img[2] 
=   cvscalar1.val[2]/(src->width * src->height);
        cvscalar1  
=   cvScalar(avg_img[0],avg_img[1],avg_img[2],NULL);
        cvScale(temp_mat,temp_mat_sub,1.0,0.0);
        cvSubS(temp_mat_sub
, cvscalar1 , temp_mat_sub ,NULL);
        cvMul(temp_mat_sub
, temp_mat_sub , temp_mat_sub2);
        cvscalar1  
=   cvSum(temp_mat_sub2);
        r1         
=   0.4*cvSqrt( (cvscalar1.val[0] + cvscalar1.val[1] + cvscalar1.val[2])/(src->width * src->height));;
    }
    //初始化随机数生成种子
    srand((unsigned)time(NULL));
     
//--------------------循环,使用meanshift进行特征空间分析。终止条件是Nmin--------------------------------------
    do
    {
//--------------------------------------------初始化搜索窗体位置-------------------------------------------
        run_meanshift_slec_number++;
        cvSet(distance,cvScalar(r1*r1,NULL,NULL,NULL),NULL);
        for(
i = 0 ; i < 25 ; i++)
        {
            meanpoint[i].pt.x
rand()%src->width;
            meanpoint[i].pt.y
rand()%src->height;
        }
        cvScale(temp_mat,temp_mat_sub,1.0,0.0);
        for(
i = 0 ; i < 25 ; i++)
        {
            /*cvSubS(temp_mat_sub
,cvScalar(cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,0),
                cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,1),
                cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,2),
                NULL),temp_mat_sub,NULL);*/
            cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
            cvSubS(temp_mat_sub,cvScalar(cvmGet(cn,meanpoint[i].pt.y,meanpoint[i].pt.x),
                cvmGet(cn1,meanpoint[i].pt.y,meanpoint[i].pt.x),
                cvmGet(cn2,meanpoint[i].pt.y,meanpoint[i].pt.x),NULL),temp_mat_sub,NULL);
            cvMul(temp_mat_sub,temp_mat_sub,temp_mat_sub2,1);
            cvSplit(temp_mat_sub2,cn,cn1,cn2,NULL);
            cvAdd(cn,cn1,cn3,NULL);
            cvAdd(cn2,cn3,cn3,NULL);            //cn3中存放着,当前随机点与空间中其他点距离的平方。
            cvCmp(cn3,distance,result,CV_CMP_LE);       //距离小于搜索半径则result对应位为1
            cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);
            cvscalar1  
=   cvSum(result);
            meanpoint[i].con_f_number
= (
int)cvscalar1.val[0];
        }
        for(i
= 0 ; i < 25 ; i++)
        {
            order[i]=i;
        }
        for(i
= 0 ; i < 25 ; i++)
            for(j
= 0 ; j < 25-i-1; j++)
            {
                if(meanpoint[order[j]].con_f_number
< meanpoint[order[j+1]].con_f_number)
                {
                    temp_number=order[j];
                    order[j]=order[j+1];
                    order[j+1]=temp_number;
                }
            }
//--------------------------------------------meanshift算法------------------------------------------------  
        double  temp_mean[3];
 
        for(
i = 0 ; i < 25 ; i++)
        {
            cvScale(temp_mat,temp_mat_sub,1.0,0.0);
            cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
            temp_mean[0]   
=   cvmGet(cn  , meanpoint[order[i]].pt.y , meanpoint[order[i]].pt.x);
            temp_mean[1]   
=   cvmGet(cn1 , meanpoint[order[j]].pt.y , meanpoint[order[i]].pt.x);
            temp_mean[2]   
=   cvmGet(cn2 , meanpoint[order[j]].pt.y , meanpoint[order[i]].pt.x);
 
            //meanshift过程
            do
            {
                //计算出在搜索窗体内的特征点,而且生成相应的模板,即相应的点置一的矩阵表示相应的点在搜索框内
                cvScale(temp_mat,temp_mat_sub,1.0,0.0);
                cvSubS(temp_mat_sub,cvScalar(temp_mean[0],temp_mean[1],temp_mean[2],NULL),temp_mat_sub,NULL);
                cvMul(temp_mat_sub,temp_mat_sub,temp_mat_sub2,1);
                cvSplit(temp_mat_sub2
, cn , cn1 , cn2 , NULL );
                cvAdd(cn,cn1,cn3,NULL);
                cvAdd(cn2,cn3,cn3,NULL);            //cn3中存放着。当前随机点与空间中其他点距离的平方。
                cvCmp(cn3,distance,result,CV_CMP_LE);       //距离小于搜索半径则result对应位为0XFF
                 
                 
                //计算shiftor
                cvCopy(temp_mat
, final_class_mat ,NULL);               
//
                cvMerge(result
, result ,result ,NULL,mask);
                cvAnd(final_class_mat
, mask ,final_class_mat ,NULL);   
//与mask(3通道,0XFF)做与操作,把搜索半径外的点置零
                cvScale(final_class_mat,temp_mat_sub,1.0,0.0);          //搜索半径内的点从8U转换成32F
 
                cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);      //对应位set
1
                cvscalar1  
=   cvSum(result);              
//reslut
作为 模板 ,返回搜索窗体内的特征数
 
                cvSubS(temp_mat_sub,cvScalar(temp_mean[0],temp_mean[1],temp_mean[2],NULL),temp_mat_sub,result);
                cvscalar2  
=   cvSum(temp_mat_sub);
                cvscalar2.val[0]
= cvscalar2.val[0]/cvscalar1.val[0] ;
                cvscalar2.val[1]
= cvscalar2.val[1]/cvscalar1.val[0] ;
                cvscalar2.val[2]
= cvscalar2.val[2]/cvscalar1.val[0] ;
                shiftor    
=   cvSqrt(
pow(cvscalar2.val[0],
2) + 
pow(cvscalar2.val[1],
2) +    
pow(cvscalar2.val[2],
2));
                temp_mean[0]=temp_mean[0]+cvscalar2.val[0];
                temp_mean[1]=temp_mean[1]+cvscalar2.val[1];
                temp_mean[2]=temp_mean[2]+cvscalar2.val[2];
                /*cvCopy(temp_mat
, final_class_mat ,NULL); //
                cvMerge(result
, result ,result ,NULL,mask);
                cvAnd(final_class_mat
, mask ,final_class_mat ,NULL);   //与result做与操作,把搜索半径外的点置零
                cvScale(final_class_mat,temp_mat_sub,1.0,0.0);         
//搜索半径内的点从8U转换成32F
                cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
                cvSubS(cn
, cvScalar(temp_mean[0],NULL,NULL,NULL),cn,result);
                cvSubS(cn1,
cvScalar(temp_mean[1],NULL,NULL,NULL),cn1,result);
                cvSubS(cn2,
cvScalar(temp_mean[2],NULL,NULL,NULL),cn2,result);
                cvMerge(cn,cn1,cn2,NULL,temp_mat_sub);
                cvscalar2  
=   cvSum(temp_mat_sub);
                shiftor    
=   cvSqrt(pow(cvscalar2.val[0] , 2) + pow(cvscalar2.val[1] , 2) +  pow(cvscalar2.val[2] , 2));
                temp_mean[0]=temp_mean[0]+cvscalar2.val[0];
                temp_mean[1]=temp_mean[1]+cvscalar2.val[1];
                temp_mean[2]=temp_mean[2]+cvscalar2.val[2];*/
            }
            while(shiftor>0.1);  //meanshift算法过程
//--------------------------------------------去除不重要特征-----------------------------------------------
            if(k==0)
            {
                feature[k].pt.x
= temp_mean[0];
                feature[k].pt.y
= temp_mean[1];
                feature[k].pt.z
= temp_mean[2];
                feature[k].number=
(
int)cvscalar1.val[0];   //由于小于等于的情况成立时。result相应位置是0XFF,不成立时相应位置为0
                pNmin  
= (
int)cvscalar1.val[0];                //此特征搜索窗体内,特征空间的向量个数
                feature[k].result=cvCreateMat(src->height,src->width,CV_8UC1);
                cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);
                cvCopy(result,feature[k].result,NULL);
                k++;
            }
            else
            {
                int flag
= 0;
                for(j
= 0 ; j < k ; j++)
                {
                    if(pow(temp_mean[0]-feature[j].pt.x
, 2) + 
pow(temp_mean[1]-feature[j].pt.y
,2) + 
pow(temp_mean[2]-feature[j].pt.z,
2)
                        <
r1*r1)
                    {
                        flag
= 1;
                        break;
                    }
                }
                if(flag==0)
                {
                    feature[k].pt.x
= temp_mean[0];
                    feature[k].pt.y
= temp_mean[1];
                    feature[k].pt.z
= temp_mean[2];
                    feature[k].number=(int)cvscalar1.val[0];
                    pNmin  
= (
int)cvscalar1.val[0];                //此特征搜索窗体内,特征空间的向量个数
                    feature[k].result=cvCreateMat(src->height,src->width,CV_8UC1);
                    cvCopy(result,feature[k].result,NULL);
                    k++;
                    //if(pNmin
< Nmin )
                    // 
break;
                }
            }//去除不重要特征
            //if(pNmin
< Nmin)
            // 
break;
        }   //
 
    }while(pNmin
> Nmin || run_meanshift_slec_number>60 );
 
    //------------------------------------------------后处理---------------------------------------------------------
    cvSetZero(result);
    for(
i = 0 ; i < k ; i ++)
    {
        cvOr(result,feature[i].result,result,NULL);
    }
 
    cvScale(temp_mat,temp_mat_sub,1.0,0.0);
    cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
 
    for(i
= 0 ; i < src->width ; i++)
        for(
j = 0 ; j < src->height ; j++)
        {
            if(cvGetReal2D(result,j,i)==0)      //未分类的像素点。进行分类。为近期的特征中心
            {
                double unclass_dis
, min_dis;
                int min_dis_index;
                for(
p = 0 ; p < k ; p++ )
                {
                    unclass_dis
pow(feature[p].pt.x
- cvmGet(cn,j,i),2)   
//(temp_mat,i,j,0)
,2)
                        pow(feature[p].pt.y
- cvmGet(cn1,j,i),2) 
//(temp_mat,i,j,1)
,2)
                        pow(feature[p].pt.z
- cvmGet(cn2,j,i),2);
//(temp_mat,i,j,2)
,2);
                    if(p==0)
                    {
                        min_dis
= unclass_dis;
                        min_dis_index
= p;
                    }
                    else
                    {
                        if(unclass_dis
< min_dis)
                        {
                            min_dis
= unclass_dis;
                            min_dis_index
= p;
                        }
                    }
                }//
end for 与特征比較
                cvSetReal2D(feature[min_dis_index].result
,j  ,i ,1);
            }
        }//完毕未分类的像素点的分类
    cvSetZero(final_class_mat);
    for(
i = 0 ; i < k ; i++)
    {
        cvSet(temp_mat,
cvScalar(
rand()%255,rand()%255,rand()%255,rand()%255),
feature[i].result);
        cvCopy(temp_mat,final_class_mat,feature[i].result);
    }
    cvConvert(final_class_mat,dst);
    //删除小于Ncon大小的区域
    for(
i = 0 ; i < k ; i++)
    {
        cvClearMemStorage(storage);
        if(seq)
cvClearSeq(seq);
        cvConvert(
feature[i].result , gray);
        cvFindContours(
gray , storage , & seq ,
sizeof(CvContour)
, CV_RETR_LIST);
        for(temp_seq
= seq ; temp_seq ; temp_seq = temp_seq->h_next)
        {
            CvContour
* cnt = (CvContour*)seq;
            if(cnt->rect.width
* cnt->rect.height < Ncon)
            {
                prev_seq
= temp_seq->h_prev;
                if(prev_seq)
                {
                    prev_seq->h_next
= temp_seq->h_next;
                    if(temp_seq->h_next)
temp_seq->h_next->h_prev = prev_seq ;
                }
                else
                {
                    seq
= temp_seq->h_next ;
                    if(temp_seq->h_next
) temp_seq->h_next->h_prev = NULL ;
                }
            }
        }//
        cvDrawContours(src,
seq , CV_RGB(0,0,255) ,CV_RGB(0,0,255),1);
    }
 
    //----------------释放空间-------------------------------------------------------  
    cvReleaseImage(&
temp);
    cvReleaseImage(&
gray);
    cvReleaseMat(&distance);
    cvReleaseMat(&result);
    cvReleaseMat(&temp_mat);
    cvReleaseMat(&temp_mat_sub);
    cvReleaseMat(&temp_mat_sub2);
    cvReleaseMat(&final_class_mat);
    cvReleaseMat(&cn);
    cvReleaseMat(&cn1);
    cvReleaseMat(&cn2);
    cvReleaseMat(&cn3);
}

》效果

执行时间16.5s

原图:

切割图:

被改写了的原图:

From:         http://www.cnblogs.com/skyseraph/

新浪微博:http://weibo.com/u/1645794700/home?

wvr=5&c=spr_web_360_hao360_weibo_t001

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

from=front" style="">

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

【图像算法】彩色图像切割专题八:基于MeanShift的彩色切割的更多相关文章

  1. SSE图像算法优化系列二十三: 基于value-and-criterion structure 系列滤波器(如Kuwahara,MLV,MCV滤波器)的优化。

    基于value-and-criterion structure方式的实现的滤波器在原理上其实比较简单,感觉下面论文中得一段话已经描述的比较清晰了,直接贴英文吧,感觉翻译过来反而失去了原始的韵味了. T ...

  2. 基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统)

    基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统) zouxy09@qq.com http://blog.csdn.net/zouxy09 一年多前开始接触计算机视觉这个领域的时候,年幼无 ...

  3. 开发指南专题八:JEECG微云高速开发平台数据字典

       开发指南专题八:JEECG微云高速开发平台数据字典的使用 1.标签中使用数据字典 数据字典为系统中可能用到的字典类型数据提供了使用的便利性和可维护性.下面拉框标签<t:dictSele ...

  4. J2EE进阶(十八)基于留言板分析SSH工作流程

    J2EE进阶(十八)基于留言板分析SSH工作流程   留言板采用SSH(Struts1.2 + Spring3.0 + Hibernate3.0)架构.   工作流程(以用户登录为例):   首先是用 ...

  5. 基于MeanShift的目标跟踪算法及实现

    这次将介绍基于MeanShift的目标跟踪算法,首先谈谈简介,然后给出算法实现流程,最后实现了一个单目标跟踪的MeanShift算法[matlab/c两个版本] csdn贴公式比较烦,原谅我直接截图了 ...

  6. 图像切割—基于图的图像切割(Graph-Based Image Segmentation)

     图像切割-基于图的图像切割(Graph-Based Image Segmentation) Reference: Efficient Graph-Based Image Segmentation ...

  7. SQL语句复习【专题八】

    SQL语句复习[专题八] 序列 Sequence.数据库对象是 oracle 专有的.作用:可以将某一列的值使用序列,来实现自动增长的功能.访问序列的值.[序列有两个属性 nextval currva ...

  8. 【Microsoft Azure 的1024种玩法】八. 基于Azure云端轻松打造一款好用的私有云笔记

    [简介] Leanote一款开源云笔记软件,它使用Go的Web框架revel和MongoDB开发完成的,其是目前为止发现的最有bigger的云笔记,它支持markdown输入,代码高亮,多人协作,笔记 ...

  9. 本图片处理类功能非常之强大可以实现几乎所有WEB开发中对图像的处理功能都集成了,包括有缩放图像、切割图像、图像类型转换、彩色转黑白、文字水印、图片水印等功能

    import java.awt.AlphaComposite; import java.awt.Color; import java.awt.Font; import java.awt.Graphic ...

随机推荐

  1. 《深入理解Spark-核心思想与源码分析》(六)第六章计算引擎

    RDD是Spark对各类数据计算模型的统一抽象,被用于迭代计算过程以及任务输出结果的缓存读写. 在所有MapReduce框架中,shuffle是连接map任务和reduce任务的桥梁.shuffle性 ...

  2. Redis-用思维导图二天搞定Redis用法。

    Redis整体面貌 Redis基本数据结构 1.String 1.1 数据结构 long len byte数组长度 long free 可用数组长度 char buff[] 数据内容 1.2 命令 键 ...

  3. PHP正则表达式30分钟入门教程

    正则表达式30分钟入门教程 三个常用的知识点: 1.惰性匹配:正则引擎默认是贪婪的,若要最少重复的话,需要用到惰性匹配符 “?” 懒惰限定符 代码/语法 说明 *? 重复任意次,但尽可能少重复 +? ...

  4. java序列化 SerializeUtil

    import java.io.ByteArrayInputStream; import java.io.ByteArrayOutputStream; import java.io.Closeable; ...

  5. Python pass 语句

    Python pass 语句 Python pass是空语句,是为了保持程序结构的完整性. pass 不做任何事情,一般用做占位语句. Python 语言 pass 语句语法格式如下: pass 实例 ...

  6. Ping用法大全

              Ping是典型的网络工具.Ping可以辨别网络功能的某些状态. 这些网络功能的状态是日常网络故障诊断的基础.特别是Ping可以识别连接的二进制状态(也就是是否连通).可是,这仅仅是 ...

  7. Powerdesigner数据库建模--概念模型--ER图

    目标: 本文主要介绍PowerDesigner中概念数据模型 CDM的基本概念. 一.概念数据模型概述 数据模型是现实世界中数据特征的抽象.数据模型应该满足三个方面的要求: 1)能够比较真实地模拟现实 ...

  8. HashCode的秘密

    看String源码HashCode的计算方式: public int hashCode() {int h = hash;if (h == 0 && value.length > ...

  9. MonoSingleton——Unity中的单例模式

    Unity中有很多特别的类需要以单例模式呈现,比如全局的UI管理类,各种缓存池,以及新手导航类等等.而Unity中,因为所有继承自Monobehaviour的脚本在实现的时候都是单线程的,所以像网上流 ...

  10. C# 利用反射动态创建对象[摘录]

    摘自:http://hi.baidu.com/yangyuhang/blog/item/f12ea90e13f214e336d12250.html 在VS.Net中,有很多种方法动态调用对象的构造函数 ...