机器学习与模式识别期末复习题及答案.docx
一、单选题1、处理二维数据的单个神经元模型的参数个数是:(IA. 1个B. 3个C.2个D.不确定正确答案:B2、从当前考场的所有考生中,找出作弊的学生,该任务属于:()»A.分类B.聚类C.异常检测D,以上均是正确答案:C3、以下方法中不属于主流机器学习方法的是:()»A.随机学习B.强化学习C.有监督学习D.无监督学习正确答案:A4、假设样本xR3,服从多元正态分布N(,X),则类条件概率密度函数的有效参数数量为:()oB. 9个C. 12个D.不确定正确答案:B5、对于一维样本二分类问题,1,)2两类均服从正态分布,假设按照最小平均借误概率准则设计的分类器为C1.分类阈值为T1.,按照最小平均风险准则设计的分类器为C2,T2,如果风险系数入N入21,入U人22则以下论断正确的是:()»A.T2比T1.更靠近类的均值B.T1与T2相同C.无法判断D.T1.比T2更耗近类的均值正确答案:D6、假设线性回归问题的训练集为:XjR3,i=1.,100,则该线性模型包含多少个参数:()o.101个B.3个C.4个D.100个7、上题中如果使用线性回归的最小二乘解的封闭解形式,则自相关矩阵RX的大小为:()。B. 4X4C. IO1.X1.O1.D. 100×1008、逻辑回归模型中的逻辑回归函数可以看作是对以下哪种概率的描述:()A-p(1)BP(d×)Cp(x1)D.p(x)9、对于包含100个样本的训练集,线性SVM原始问题的待优化变量数量为()。.2个B. 101个C. 3个D.无法确定正确答案:D10、原始线性SVv问题经过拉格朗日对偶处理后转化为一个:()。.无约束最大化问题B.有约束最小化问题C.有约束最大化问题D.无约束最小化问题正确答案:AIK利用SMo算法求解SVM问题时,每轮迭代选取()个系数变量进行更新。.2个B无法确定C. 1个D.样本数量正确答案:A12、点样本集为,且有A(Xi)=a?,V*S,则利用特征A进行分裂后产生几个子节点:()。A.无法分裂B.无法确定C2个D. 3个正确答案:D13、当前节点内样本集包含5个样本,特征数量为3,其中两个离散特征,1个连续特征,采用多义树方案,则当前节点共有多少种可选的分裂方案。()A.无法确定B.3种C. 2种D. 1种正确答案:B14、设样本集为X=1.3,5,7,Y=+1,-伴-1,+1,权重为Dt=0.1.0.5,0.2.0.2,个体分类器函数形式为瓦仪)=sign(x-v).则当前的最优取值为:()A.OC. 6D. 4正确答案:C15、当样本数趋近于无穷大时,Bootstrap采样时样本被抽中的概率约为:()oA. 0.612B. 1C. 0.5D. 0.368正确答案:A16、当样本数为N,精度为,置信度为b时,下述那种学习时间T对应的学习算法是PAC学习算法:(2nATB. T=NIogN+.C. T=N1.ogN+21/eD. T=N!正确答案:B二、判断题1、一个数据集的特征维度总是小于该数据集的样本数量。正确答案:×2、模型容量大小与训练集样本数量无关。正确答案:3、明口降水概率预测属于回归问题。正确答案:4、班级内Pi由分组讨论不屈于分类问题。正确答案:×5、驯兽师用鞭打和喂食的方式教导老虎跳火圈属于有监督学习。正确答案:×6、在分类问题中,类条件概率是概率质量,后验概率此概率密度。正确答案:×7、有些问题中,无需了解光险概率也可以直接估计后验概率。正确答案:8、最大后验概率分类准则和最小错误概率分类准则在任何情况下给出的分类结果都是一样的。正确答案:J9、最小错误概率分类准则给出的分类结果总是正确的。正确答案:X10、对于一组线性可分的训练集,所有能够将它们正确分类的线性分类器都具有相同的分类性能。正确答案:×11、所有支撑向量均在间隔区域的边界上。正确答案:×12、间隔区域越宽意味着模型的经验风险越小。正确答案:×13、线性SVM求解必须依嵬拉格朗口对偶技巧。正确答案:×14、基于基尼指数的分裂结果与基于信息增益比的分裂结果总是相同的。正确答案:×15、信息增益越大的特征信息增益比也越大。正确答案:×16、信息增益比越大的特征不纯度越小。正确答案:×17、使用相对多数投票时,若没有任何一类得票数高于50%,则拒绝分类。正确答案:×18、采用前向分步优化策略得到的最优解就是集成学习问题的全局最优解。正确答案:×19、Adab。St算法中,被个体学习器瓦错误分类的样本的权重在瓦+的学习中一定会增加。正确答案:X20、模型在独立同分布采样获得的训练集上的羟验误差总是小于该模型在该分布上的泛化误差。正确答案:×21、若存在假设UH在数据集D上的经验误差为零,则有真实映射feH.正确答案:×22、线性分类流h(x)=w1x1+W2X2+Wo的VC维是3正确答案:J23、表情特征可以用于身份识别。正确答案:×24、稀疏编码方法中的编码数值是通过将原始数据向字典上投影得到的。正确答案:×25.IsoMap流形学习算法无法直接实现训练集以外的新样本的特征提取。正确答案:J26、稀疏编码算法中的重构损失和稀疏性均可作为目标函数或约束条件。正确答案:27、稀疏编码算法的字典中的特征向量必须正交。正确答案:×28、PCA算法中的基向量必须正交。正确答案:J