求模式识别高手3、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T w2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5.4、已知两类的数据
来源:学生作业帮助网 编辑:六六作业网 时间:2024/11/16 18:34:55
求模式识别高手3、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T w2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5.4、已知两类的数据
求模式识别高手
3、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T
w2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T
试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5.
4、已知两类的数据:
w1:(1,0),(2,0),(1,1)
W2:(-1,0),(0,1),(-1,1)
试求该组数据的类内与类间散布矩阵.
5、给出二维样本数据(-1,1),(2,2),(1,-1),(-2,-2),试用K-L变换作一维数据压缩.
求模式识别高手3、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T w2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5.4、已知两类的数据
对于第三题:
你可以画图看,比较直观!
首先,对于最近邻,就是测试样本(0,0)离所有9个训练样本中最近的样本点,所对应的类别即为其分类.显然对于(0,0),离它最近距离(这里是欧式距离,即为d=(x1-x2)^2+(y1-y2)^2,在图上看就是我们理解的普通的两点之间的距离)的点是(-1,0),距离为1,所以(0,0)应该是第一类w1的.
K=5近邻,即为(0,0)离所有9个训练样本中最近的前5个样本中,看属于w1的点多,还是属于w2的点多,哪个多就属于哪类.由图很显然看出,离(0,0)最近距离的5个训练样本点的先后顺序是w1的(-1,0),w2的(1,1),w2的(1,-1),w1的(-2,0),w2的(2,0),显然属于w2的多,那么(0,0)就属于w2类.
对于第5题的KL变换,其实就是PCA主元分析,从图上可以清晰的看出,这四个点的主元方向就是x1-x2=0这条线.如果我们按步骤计算可以如下:
1.将四个点组成一个矩阵X=[-1 2 1 -2;1 2 -1 -2]这是一个2×4的矩阵,即每个列是一个样本点.每列求平均值,再用X的每个列减去求得的平均值得到新的矩阵X=[-1 0 1 0;1 0 -1 0],即所谓的零均值化,目的是使得最大化误差近似,否则求得结果就是均方误差最小化近似.
2.作S=X*X',即求协方差矩阵,当然忽略系数了.显然,S是一个2×2的矩阵.S=[2 -2;-2 2].
3.显然S的秩为1,求其特征值只有一个,为,D=4,其对应的特征向量为P=[-0.707;0.707],它是一个2×1的向量.
4.P就是降维得到的向量,可以看出它就是x1=x2这条直线.
对于第4题
比较容易求,可以参加张学工那本模式识别书里面Fisher线性判别那张的类间Sb和类内Sw矩阵定义式
对于Sb的计算,先求所有6个样本的矩阵向量u=[1/3;1/6];再求第一类的均值u1=[4/3;1/3];再求第二类的均值u2=[-2/3;0];然后Sb=(u-u1)*(u-u2)',这是一个2×2的矩阵,可求.
对于Sw的计算,先求第一类的类内离散度,将第一类的3个点拼成x1=[1 2 1;0 0 1],2×3的矩阵,S1=(x1-u1)*(x1-u1)',再求第二类的S2=(x2-u2)*(x2-u2)',然后S2=S1+S2