机器学习笔记——k-近邻算法(一)简单代码
一
import numpy as np
##初始化数据
T = [[3, 104, -1],
[2, 100, -1],
[1, 81, -1],
[101, 10, 1],
[99, 5, 1],
[98, 2, 1]]
##初始化待测样本
x = [18, 90]
##初始化邻居数
K = 5 ##初始化存储距离列表[[距离1,标签1],[距离2,标签2]....]
dis=[] ##循环每一个数据点,把计算结果放入dis
for i in T:
d = ((x[0]-i[0])**2+(x[1]-i[1])**2)**0.5
dis.append([d,i[-1]])
##对dis按照距离排序
dis.sort()
##将前K个票放入投票箱
np.sign(sum([i[-1] for i in dis[:K]])) 二
#带权投票
import numpy as np ##初始化数据
T = [[3, 104, -1],
[2, 100, -1],
[1, 81, -1],
[101, 10, 1],
[99, 5, 1],
[98, 2, 1]]
##初始化待测样本
x = [18, 90]
##初始化邻居数
K = 5 ##初始化存储距离列表[[距离1,标签1],[距离2,标签2]....]
dis=[] ##循环每一个数据点,把计算结果放入dis
for i in T:
d = ((x[0]-i[0])**2+(x[1]-i[1])**2)**0.5
dis.append([d,i[-1]])
##对dis按照距离排序
dis.sort()
##将前K个票放入投票箱
np.sign(sum([i[-1]/i[0] for i in dis[:K]])) 三
import numpy as np ##初始化数据
T = [[3, 104, 98],
[2, 100, 93],
[1, 81, 95],
[101, 10, 16],
[99, 5, 8],
[98, 2, 7]]
##初始化待测样本
x = [18, 90]
##初始化邻居数
K = 5 ##初始化存储距离列表[[距离1,标签1],[距离2,标签2]....]
dis=[] ##循环每一个数据点,把计算结果放入dis
for i in T:
d = ((x[0]-i[0])**2+(x[1]-i[1])**2)**0.5
dis.append([d,i[-1]])
##对dis按照距离排序
dis.sort()
##将前K个票放入投票箱
np.mean([i[-1] for i in dis[:K]]) 四
#带权回归
import numpy as np ##初始化数据
T = [[3, 104, 98],
[2, 100, 93],
[1, 81, 95],
[101, 10, 16],
[99, 5, 8],
[98, 2, 7]]
##初始化待测样本
x = [18, 90]
##初始化邻居数
K = 5 ##初始化存储距离列表[[距离1,标签1],[距离2,标签2]....]
dis=[] ##循环每一个数据点,把计算结果放入dis
for i in T:
d = ((x[0]-i[0])**2+(x[1]-i[1])**2)**0.5
dis.append([d,i[-1]])
##对dis按照距离排序
dis.sort()
##将前K个票放入投票箱
fenzi = sum([i[-1]/i[0] for i in dis[:K]])
fenmu = sum([1/i[0] for i in dis[:K]])
fenzi/fenmu
机器学习笔记——k-近邻算法(一)简单代码的更多相关文章
- 机器学习之K近邻算法(KNN)
机器学习之K近邻算法(KNN) 标签: python 算法 KNN 机械学习 苛求真理的欲望让我想要了解算法的本质,于是我开始了机械学习的算法之旅 from numpy import * import ...
- 机器学习实战笔记--k近邻算法
#encoding:utf-8 from numpy import * import operator import matplotlib import matplotlib.pyplot as pl ...
- 【机器学习】k近邻算法(kNN)
一.写在前面 本系列是对之前机器学习笔记的一个总结,这里只针对最基础的经典机器学习算法,对其本身的要点进行笔记总结,具体到算法的详细过程可以参见其他参考资料和书籍,这里顺便推荐一下Machine Le ...
- 第四十六篇 入门机器学习——kNN - k近邻算法(k-Nearest Neighbors)
No.1. k-近邻算法的特点 No.2. 准备工作,导入类库,准备测试数据 No.3. 构建训练集 No.4. 简单查看一下训练数据集大概是什么样子,借助散点图 No.5. kNN算法的目的是,假如 ...
- R语言学习笔记—K近邻算法
K近邻算法(KNN)是指一个样本如果在特征空间中的K个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性.即每个样本都可以用它最接近的k个邻居来代表.KNN算法适 ...
- 机器学习之K近邻算法
K 近邻 (K-nearest neighbor, KNN) 算法直接作用于带标记的样本,属于有监督的算法.它的核心思想基本上就是 近朱者赤,近墨者黑. 它与其他分类算法最大的不同是,它是一种&quo ...
- 机器学习2—K近邻算法学习笔记
Python3.6.3下修改代码中def classify0(inX,dataSet,labels,k)函数的classCount.iteritems()为classCount.items(),另外p ...
- 《机器学习实战》读书笔记—k近邻算法c语言实现(win下)
#include <stdio.h> #include <io.h> #include <math.h> #include <stdlib.h> #de ...
- 机器学习实战-k近邻算法
写在开头,打算耐心啃完机器学习实战这本书,所用版本为2013年6月第1版 在P19页的实施kNN算法时,有很多地方不懂,遂仔细研究,记录如下: 字典按值进行排序 首先仔细读完kNN算法之后,了解其是用 ...
- 【机器学习】K近邻算法——多分类问题
给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该类输入实例分为这个类. KNN是通过测量不同特征值之间的距离进行分类.它的的思路是:如 ...
随机推荐
- appium+python 【Mac】UI自动化测试封装框架介绍 <七>---脚本编写规范
脚本的使用,注释非常关键,无论自己的后期查看还是别人使用,都可以通过注释很明确的知道代码所表达的意思,明确的知道如何调用方法等等.每个团队均有不同的商定形式来写脚本,因此没有明确的要求和规范来约束.如 ...
- VirtualBox Linux虚拟机 网络设置 centos
VirtualBox网络设置成桥接 进去系统打开终端 vi /etc/sysconfig/network-scripts/ifcfg-enp0s3 用Vim编辑器打开配置文件,输入命令:vi /etc ...
- jaxb生成cdata块
1.需要添加一个适配器: import javax.xml.bind.annotation.adapters.XmlAdapter; public class AdapterCDATA extends ...
- List 中 forEach 的用法
1.forEach List list = new ArrayList<String>(); list.add("small"); list.add("sun ...
- 3、python--第三天练习题
#1.简述普通参数.指定参数.默认参数.动态参数的区别 #1.普通参数就是传入的函数,没有默认值 def f(a): a = a + 1 return a print(f(3)) #2.指定参数 de ...
- Codeforces Round #590 (Div. 3)【D题:26棵树状数组维护字符出现次数】
A题 题意:给你 n 个数 , 你需要改变这些数使得这 n 个数的值相等 , 并且要求改变后所有数的和需大于等于原来的所有数字的和 , 然后输出满足题意且改变后最小的数值. AC代码: #includ ...
- 安装YII
吸收了其它php网站的搭建经验,没想到安装yii的时候还是状况频出 yii2 安装 http://www.yiichina.com/tutorial/324 1.下载了个yii2 advance的版本 ...
- crm-权限管理
1 用户登录 设置session 将权限存放在session中 2 设置中间件,进行拦截 0 添加白名单,判断是否在白名单上 1 判断是否登录 2 权限过滤
- flex的圣杯布局记录 (flex : 0 0 80px)
- jenkins之docker安装
此方法安装还存在两个问题1.构建node程序:2.时区问题(在docker run 设置环境变量是否能解决没有试过) 不建议用此方法安装,查看我的其他安装方式 搬运官网步骤,稍微改动. 1.安装doc ...