1.radial basis function

RBF表示某种距离,$\mu_m$为中心点,相当于将点$x$到中心点的某种距离作为特征转换

Output方法可以根据需求任意选取(比如使用SVM,logistic regression等)

关键在于:中心点选取,距离函数选择

2.使用kmean选取中心点,后使用logistic regression

import numpy as np
from sklearn.cluster import KMeans
from sklearn.linear_model import LogisticRegression
from matplotlib import pyplot as plt
from sklearn import cross_validation
from sklearn.base import BaseEstimator class KMeansRBF:
def __init__(self,n_clusters,beta,C):
self.n_clusters=n_clusters
self.beta=beta
self.C=C def fit(self,X,y):
km = KMeans(n_clusters=self.n_clusters);
km.fit(X)
ct = km.cluster_centers_
self.ct = ct
G = self._nFeature(ct, X)
lg=LogisticRegression(C=self.C)
lg.fit(G,y)
self.lg=lg def predict(self,X):
G = self._nFeature(self.ct, X)
return self.lg.predict(G) def _nFeature(self,cts,X):
G = np.zeros((X.shape[0],cts.shape[0]))
for xi,x in enumerate(X):
for ci,c in enumerate(cts):
G[xi,ci] = self._kernal(x, c)
return G def _kernal(self,x1,x2):
x = x1-x2;
return np.exp(-self.beta*np.dot(np.transpose(x),x)) def predict_proba(self,X):
G = self._nFeature(self.ct, X)
return self.lg.predict_proba(G) def get_params(self, deep=True):
return {'n_clusters':self.n_clusters,'beta':self.beta,'C':self.C} def set_params(self, **parameters):
for parameter, value in parameters.items():
setattr(self, parameter, value) def plot(self,X,y):
pos = np.where(y==1)
neg = np.where(y==-1) x1 = X[pos[0],:]
x2 = X[neg[0],:] plt.figure()
plt.plot(x1[:,0],x1[:,1],'o')
plt.plot(x2[:,0],x2[:,1],'o')
plt.plot(self.ct[0,0],self.ct[0,1],'ro')
plt.plot(self.ct[1,0],self.ct[1,1],'ro') xmax = np.max(X[:,0])+5
xmin = np.min(X[:,0])-5
ymax = np.max(X[:,1])+5
ymin = np.min(X[:,1])-5 numx = int((xmax-xmin)*10)
numy = int((ymax-ymin)*10)
total = numx*numy;
lx = np.linspace(xmin,xmax,numx)
ly = np.linspace(ymin,ymax,numy)
mgrid = np.meshgrid(lx,ly)
px = np.hstack((mgrid[0].reshape(total,1),mgrid[1].reshape(total,1)))
pre=self.predict_proba(px)
ind = np.where(abs(pre[:,1]-pre[:,0])<0.01) px=px[ind]
plt.plot(px[:,0],px[:,1],'yo')
plt.show()
if __name__ == '__main__':
x1=np.random.normal(10, 6.0, (80,2))
x2=np.random.normal(-10, 6.0, (80,2)) X = np.vstack((x1,x2))
y = np.zeros((160,1))
y[range(0,80),0]=y[range(0,80),0]+1
y[range(80,160),0]=y[range(80,160),0]-1
y=np.ravel(y) betas = np.linspace(0.001,0.1,100)
k = range(100)
score = np.zeros((100,1),'float') bestbeta = 0.001;
maxscore = -1;
for i,beta in enumerate(betas):
krbf = KMeansRBF(2,beta,1)
scores =cross_validation.cross_val_score(krbf,X,y,scoring="accuracy",cv=5)
score[i,0]=scores.mean()
if score[i,0]>maxscore:
maxscore=score[i,0]
bestbeta = beta plt.figure()
plt.plot(k,score,'b-')
plt.show()
print bestbeta;
krbf = KMeansRBF(2,bestbeta,1)
krbf.fit(X, y)
krbf.plot(X,y)

3.结果

    gussian中beta的値设置非常关键

由于指数函数增加得很快,所以大的beta値,意味着只有和中心点很近的点才能被判定和中心点为同一类

                                       beta = 1                                          beta = 0.001

RBF network的更多相关文章

  1. 径向基网络(RBF network)

    来源:http://blog.csdn.net/zouxy09/article/details/13297881 1.径向基函数 径向基函数(Radical Basis Function,RBF)方法 ...

  2. 机器学习技法:14 Radial Basis Function Network

    Roadmap RBF Network Hypothesis RBF Network Learning k-Means Algorithm k-Means and RBF Network in Act ...

  3. 机器学习技法笔记:14 Radial Basis Function Network

    Roadmap RBF Network Hypothesis RBF Network Learning k-Means Algorithm k-Means and RBF Network in Act ...

  4. Coursera台大机器学习技法课程笔记14-Radial Basis Function Network

    将Radial Basis Function与Network相结合.实际上衡量两个点的相似性:距离越近,值越大. 将神经元换为与距离有关的函数,就是RBF Network: 可以用kernel和RBF ...

  5. RBF神经网络和BP神经网络的关系

    作者:李瞬生链接:https://www.zhihu.com/question/44328472/answer/128973724来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注 ...

  6. 【Radial Basis Function Network】林轩田机器学习技法

    这节课主要讲述了RBF这类的神经网络+Kmeans聚类算法,以及二者的结合使用. 首先回归的了Gaussian SVM这个模型: 其中的Gaussian kernel又叫做Radial Basis F ...

  7. RBF网络——核心思想:把向量从低维m映射到高维P,低维线性不可分的情况到高维就线性可分了

      RBF网络能够逼近任意的非线性函数,可以处理系统内的难以解析的规律性,具有良好的泛化能力,并有很快的学习收敛速度,已成功应用于非线性函数逼近.时间序列分析.数据分类.模式识别.信息处理.图像处理. ...

  8. theano中的concolutional_mlp.py学习

    (1) evaluate _lenet5中的导入数据部分 # 导入数据集,该函数定义在logistic_sgd中,返回的是一个list datasets = load_data(dataset) # ...

  9. 全连接BP神经网络

    前馈神经网络 前馈神经网络(feedforward neural network)是最朴素的神经网络,通常我们所说的前馈神经网络有两种,一种叫反向传播网络(Back propagation Netwo ...

随机推荐

  1. 基于最大最小距离的分类数目上限K确定的聚类方法

    聚类是数据挖掘很重要的组成部分.而大多数聚类算法都需要事先确定分类数目K.而本文是在实际 情况下确定分类数目K的上限.进而对数据样本进行自动分类. 首先介绍下最大最小距离算法: 设样本集为X{x(1) ...

  2. Unity 之 Redux 模式(第二篇)—— Rigidbody 改造,摄像机控制

    作者:软件猫 日期:2016年12月8日 转载请注明出处:http://www.cnblogs.com/softcat/p/6144041.html 上一篇文章中存在一个很严重的问题,首先我们先让 M ...

  3. 【剑指offer】连续子数组的最大和

    个開始,到第3个为止).你会不会被他忽悠住? 输入: 输入有多组数据,每组測试数据包括两行. 第一行为一个整数n(0<=n<=100000),当n=0时,输入结束.接下去的一行包括n个整数 ...

  4. Swift中元组(Tuples),结构体(Struct),枚举(Enums)之间的区别

    Swift有许多种存储数据方式,你可以用枚举(enums),元组(tuples),结构体(structs),类(classes),在这篇文章中我们将比较枚举.元组.结构体之间区别,首先从最简单的开始- ...

  5. 让你提前认识软件开发(23):怎样在C语言中运行shell命令?

    第1部分 又一次认识C语言 怎样在C语言中运行shell命令? [文章摘要] Linux操作系统具备开源等诸多优秀特性,因此在很多通信类软件(主流开发语言为C语言)中,开发平台都迁移到了Linux上, ...

  6. 【dfs or 最短路】【HDU1224】【Free DIY Tour】

    路径只能由小序号到大序号..(起点可以视为最小的序号和最大的序号) 问怎么走 happy值最大.. DFS N=100 且只能小序号到大序号 显然dfs可以过.. 但是存路径的时候sb了.....应该 ...

  7. 【泛化物品】【HDU1712】【ACboy needs your help】

    ACboy needs your help Time Limit: 1000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Ot ...

  8. UVA 10305 Ordering Tasks

    题意: 给出n和m,n代表总共有几个箱子.接下来m行,每行有a,b,表示b在a之后.输出一个合理的序列. 分析: 简单的拓扑排序: 代码: #include <iostream>#incl ...

  9. 从客户端中检测到有潜在危险的Request.Form值的解决办法

    http://www.pageadmin.net/article/20141016/935.html 如果你网站iis服务器asp.net采用了4.0的版本,则默认会阻止客户端的html内容提交,提交 ...

  10. 异步消息处理机制——Handler用法

    Handler 1. Message Messsge是线程之间传递的消息,它可以在内部携带少量的信息,用于在不同线程之间交换数据,Message的what字段,除此之外还可以使用arg1和arg2字段 ...