机器学习系列算法1:KNN
思路:空间上距离相近的点具有相似的特征属性。
执行流程:
•1. 从训练集合中获取K个离待预测样本距离最近的样本数据;
•2. 根据获取得到的K个样本数据来预测当前待预测样本的目标属性值
三要素:K值选择/距离度量(欧式距离)/决策选择(平均值/加权平均)
Knn问题:数据量大,计算量较大;解决方案:kd-tree
kd-tree:计算方差,根据方差大的划分
伪代码实现:
import numpy as np
from collections import defaultdict class myknn: def fit(self, X, Y, k):
self.train_x = X
self.train_y = Y
self.k = k def predict(self, X):
predict_labels = []
for x in X:
# 1. 从训练数据中获取K个和当前待预测样本x最相似的样本
neighbors = self.fetch_k_neighbors(x)
# 2. 将这K个最相似的样本中出现次数最多的类别作为预测值
predict_label = self.calc_max_count_label(neighbors)
# 3. 将当前样本的预测值添加到临时的列表中
predict_labels.append(predict_label) return predict_labels def fetch_k_neighbors(self, x):
distances = []
for neighbor in self.train_x:
dis = np.sqrt(np.sum((np.array(x) - neighbor) ** 2))
distances.append(dis)
neighbors_y_distances = [[neighbor, y, dis] for neighbor, y, dis in zip(self.train_x, self.train_y, distances)] k_neighbors_y = sorted(neighbors_y_distances, key=lambda x: x[2])[:self.k]
return k_neighbors_y def calc_max_count_label(self, neighbors):
y_count = defaultdict(int)
for neighbor, y, _ in neighbors:
y_count[y] += 1
max_count_label = sorted(y_count.items(), key=lambda x: x[1], reverse=True)[0][0]
return max_count_label a = myknn()
X = [
[1, 2, 3],
[4, 5, 6],
[7, 8, 9],
[10, 11, 12],
[1, 2, 3],
[4, 5, 6],
[7, 8, 9],
]
Y = [1, 2, 3, 2, 1, 2, 3]
k = 3
a.fit(X, Y, k)
print(a.predict([[7, 8, 9], ]))
sklearn 实现:
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import matplotlib as mpl
import os if not os.path.exists('models'):
os.mkdir('models')
base_path = './models/' #模型保存路径 from sklearn.datasets import load_iris #load 鸢尾花数据
from sklearn.model_selection import train_test_split #数据分割
from sklearn.neighbors import KNeighborsClassifier #knn分类器
from sklearn.externals import joblib #持久化 data = pd.read_csv('iris.data', header=None) print(data.head())
X = data.loc[:, :3] #前4列为特征数据
Y = data[4] #最后一列为目标数据
print(X.head()) X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state=22) '''
def __init__(self,
n_neighbors=5, #邻居数目
weights='uniform', #uniform 等权重/distance
algorithm='auto', #暴力计算和kd-tree
leaf_size=30, #构建kd-tree 允许的最大叶子节点
p=2, #距离公式
metric='minkowski', #默认欧式距离
metric_params=None,
n_jobs=None, #开启多少个线程计算
**kwargs):''' algo = KNeighborsClassifier(n_neighbors=3)
algo.fit(X_train, Y_train)
print('准确率:{}'.format(algo.score(X_train, Y_train))) # 持久化
joblib.dump(value=algo, filename=base_path + 'knn.pkl')
机器学习开发流程:
# 1. 数据加载 # 2. 数据的清洗、处理 # 3. 训练数据和测试数据的划分 # 4. 特征工程 # 5. 模型对象构建 # 6. 模型训练 # 7. 模型效果评估 # 8. 模型持久化 持久化的方式主要三种:
-1. 将模型持久化为二进制的磁盘文件。
-2. 将模型参数持久化到数据库中。
-3. 使用模型对所有数据进行预测,并将预测结果保存到数据库中。
机器学习系列算法1:KNN的更多相关文章
- 机器学习经典算法之KNN
一.前言 KNN 的英文叫 K-Nearest Neighbor,应该算是数据挖掘算法中最简单的一种. 先用一个例子体会下. /*请尊重作者劳动成果,转载请标明原文链接:*/ /* https://w ...
- Python3实现机器学习经典算法(一)KNN
一.KNN概述 K-(最)近邻算法KNN(k-Nearest Neighbor)是数据挖掘分类技术中最简单的方法之一.它具有精度高.对异常值不敏感的优点,适合用来处理离散的数值型数据,但是它具有 非常 ...
- 【机器学习】k近邻算法(kNN)
一.写在前面 本系列是对之前机器学习笔记的一个总结,这里只针对最基础的经典机器学习算法,对其本身的要点进行笔记总结,具体到算法的详细过程可以参见其他参考资料和书籍,这里顺便推荐一下Machine Le ...
- 就是要你明白机器学习系列--决策树算法之悲观剪枝算法(PEP)
前言 在机器学习经典算法中,决策树算法的重要性想必大家都是知道的.不管是ID3算法还是比如C4.5算法等等,都面临一个问题,就是通过直接生成的完全决策树对于训练样本来说是“过度拟合”的,说白了是太精确 ...
- 机器学习十大算法之KNN(K最近邻,k-NearestNeighbor)算法
机器学习十大算法之KNN算法 前段时间一直在搞tkinter,机器学习荒废了一阵子.如今想重新写一个,发现遇到不少问题,不过最终还是解决了.希望与大家共同进步. 闲话少说,进入正题. KNN算法也称最 ...
- 机器学习十大算法 之 kNN(一)
机器学习十大算法 之 kNN(一) 最近在学习机器学习领域的十大经典算法,先从kNN开始吧. 简介 kNN是一种有监督学习方法,它的思想很简单,对于一个未分类的样本来说,通过距离它最近的k个" ...
- 机器学习之K近邻算法(KNN)
机器学习之K近邻算法(KNN) 标签: python 算法 KNN 机械学习 苛求真理的欲望让我想要了解算法的本质,于是我开始了机械学习的算法之旅 from numpy import * import ...
- 机器学习实战(Machine Learning in Action)学习笔记————02.k-邻近算法(KNN)
机器学习实战(Machine Learning in Action)学习笔记————02.k-邻近算法(KNN) 关键字:邻近算法(kNN: k Nearest Neighbors).python.源 ...
- <转>机器学习系列(9)_机器学习算法一览(附Python和R代码)
转自http://blog.csdn.net/han_xiaoyang/article/details/51191386 – 谷歌的无人车和机器人得到了很多关注,但我们真正的未来却在于能够使电脑变得更 ...
随机推荐
- 《图解HTTP》摘录
# 图解HTTP 第 1 章 了解Web及网络基础 1.1使用http协议访问web 客户端:通过发送请求获取服务器资源的Web浏览器等. Web使用一种名为 HTTP(HyperText Trans ...
- webpack4 + ejs 构建多页应用
目录结构 ├─build webpack配置目录 │ ├─plugins.js │ ├─rules.js │ ├─transfromAssets.js //简单的一个插件,处理路径问题 │ └─web ...
- Linux Exploit系列之三 Off-By-One 漏洞 (基于栈)
Off-By-One 漏洞 (基于栈) 原文地址:https://bbs.pediy.com/thread-216954.htm 什么是off by one? 将源字符串复制到目标缓冲区可能会导致of ...
- Nginx 之 Rewrite 规则
write 规则介绍 Rewite 规则作用 Rewrite规则可以实现对url的重写,以及重定向 作用场景: URL访问跳转,支持开发设计,如页面跳转,兼容性支持,展示效果等 SEO优化 维护:后台 ...
- MySQL主从复制(Centos6.3&MySQL5.6)
环境: Master:Centos 6.3 192.168.1.4 Slave:Centos 6.3 192.168.1.5 MySQL: MySQL-5.6.2 ...
- Linux 本机/异机文件对比
一:提取异步机器文件 #ssh 192.168.1.2 "cat /etc/glance/glance-api.conf | grep -v '#' |grep -v ^$" 二: ...
- Luogu P1892 团伙
Luogu P1892 团伙 这是道很简单的并查集-- 不,它并不简单. 这道题考了一个叫做反集的东西. 也就是说: 如果$a$和$b$是敌人,合并$n+b$和$a$,$n+a$和$b$: 如果$c$ ...
- 基于Java+Selenium的WebUI自动化测试框架(九)-----基础页面类(BasePage)
上篇我们写了java读取xml文件的类,实现了可以从xml文件读取元素的方式.那么,接下来我们需要考虑一个问题.我们拿了这些元素之后怎么去操作呢? 先来看看我们手工测试的时候是怎么进行的. 双击浏览器 ...
- ES6 解构赋值详解
解构赋值是对赋值运算符的扩展,可以将属性/值从对象/数组中取出,赋值给其他变量. 一.数组的解构赋值 1.基本用法 只要等号两边的模式相同,左边的变量就会被赋予对应的值. let [a, [[b], ...
- zookeeper入门(1)---基本概念
转载 : https://blog.csdn.net/java_66666/article/details/81015302 一. zookeeper概念 它是一个分布式服务框架,是Apache Ha ...