一、概述
1. 原理:
- 工作机制:给定测试样本,基于某种距离度量找出训练集中的与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测.
- 通常k是不大于20的整数
2. 优缺点
- 优点:精度高、对异常值不敏感、无数据输入假定
- 缺点:计算复杂度高、空间复杂度高,占用存储空间。无法给出数据的内在含义
- 适用数据范围:数值型和标称型
3. 懒惰算法:
二、算法流程
- 收集数据
- 准备数据
- 分析数据
- 训练算法(不适合KNN算法,因为K是“懒惰算法”的著名代表)
- 测试算法
- 使用算法
三、算法框架
1. classify0()函数的4个输入参数:
- inX:用于分类的输入向量
- dataSet:用于输入的训练样本集
- labels:标签向量
- k:参数k用于选择最佳邻居的数目
2. 使用欧氏距离公式
- 计算两个向量点xA和xB之间的距离
- 计算存在4个特征值的数据集的距离
3. 在约会网站上使用算法
- 海伦用三个属性来测试自己对于约会对象的喜爱程度 每年的飞行里程数 玩视频游戏所耗时间百分比 每周消费的冰激凌公升数 她积攒了一些数据,该数据保存在datingTestSet.txt中,共1000行。
准备数据
1
2
3
4def createDataSet():
group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
labels = ['A', 'A', 'B', 'B']
return group, labels算法
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29def classify0(inX,dataSet,labels,k):
#训练数据集的行数
dataSetSize=dataSet.shape[0]
#计算距离
#这里要说一下tile()函数,以后我们还会多次用到它
#tile(A,B)表示对A重复B次,B可以是int型也可以是数组形式
#如果B是int,表示在行方向上重复A,B次,列方向默认为1
#如果B是数组形式,tile(A,(B1,B2))表示在行方向上重复B1次,列方向重复B2次
diffMat=tile(inX,(dataSetSize,1))-dataSet
print(diffMat)
sqDiffMat=diffMat**2
print(sqDiffMat)
sqDistances=sqDiffMat.sum(axis=1)
distances=sqDistances**0.5
#排序,这里argsort()返回的是数据从小到大的索引值,这里这就是第几行数据
sortedDisIndicies =distances.argsort()
print(sortedDisIndicies)
classCount={}
#选取距离最小的k个点,并统计每个类别出现的频率
#这里用到了字典get(key,default=None)返回键值key对应的值;
#如果key没有在字典里,则返回default参数的值,默认为None
for i in range(k):
voteIlabel=labels[sortedDisIndicies[i]]
classCount[voteIlabel]=classCount.get(voteIlabel,0)+1;
#逆序排序,找出出现频率最多的类别
sortedClassCount=sorted(classCount.items(),
key=operator.itemgetter(1),reverse=True)
print(sortedClassCount)
return sortedClassCount[0][0]py3.5中iteritems改为items(上倒数第4行)
1
2
3
4进入python界面:
>>import kNN
>>group,labels=kNN.createDataSet()
>>kNN.classify0([0,0],group,labels,3)读取txt的数据
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21def file2matrix(filename):
fr=open(filename)
#读取文件
arrayOLines=fr.readlines()
#文件行数
numberOfLines=len(arrayOLines)
#创建全0矩阵
returnMat=zeros((numberOfLines,3))
#标签向量
classLabelVector=[]
index=0
#遍历每一行,提取数据
for line in arrayOLines:
line=line.strip();
listFromLine=line.split('\t')
#前三列为属性信息
returnMat[index,:]=listFromLine[0:3]
#最后一列为标签信息
classLabelVector.append(int(listFromLine[-1]))
index +=1
return returnMat,classLabelVector
1 | 重新加载kNN,得倒解析数据 |
使用Matplotlib 创建散点图
1
2
3
4
5
6
7
8命令行中输入
>>import matplotlib
>>import matplotlib.pyplot as plt
>>from numpy import array
>>fig = plt.figure()
>>ax=fig.add_subplot(111)
>>ax.scatter(datingDataMat[:,1],datingDataMat[:,2],15.0*array(datingLabels),15.0*array(datingLabels))
>>plt.show()利用github存储图片并以markdown的链接形式显示
4. 数据的归一化
- 由于每个属性的取值数量级相差过大,会造成每个属性的权重不同,这显然是海伦不希望的。所以我们还要写一个函数实现数据归一化,公式如下:
- newValue=(oldValue-min)/(max-min)
- 这个公式可以将特征值转化为0~1之间的值。
1
2
3
4
5
6
7
8
9
10
11
12
13
14#归一化特征值
def autoNorm(dataSet):
#每列的最小值
minVals=dataSet.min(0)
#每列的最大值
maxVals=dataSet.max(0)
#最大值与最小值的差值
ranges=maxVals-minVals
normDataSet=zeros(shape(dataSet))
m=dataSet.shape[0]
#minVals是1*3的矩阵,使用tile函数复制成和dataSet同样大小的矩阵,方便计算
normDataSet=dataSet-tile(minVals,(m,1))
normDataSet=normDataSet/tile(ranges,(m,1))
return normDataSet,ranges,minVals
1 | >reload(kNN) |
5. 原始分类器
1 | #原始测试分类器 |
6. 接口
1 | # 约会网站预测函数 |
7. 识别手写数字
1 |
|
1 | def handwritingClassTest(): |