机器学习课后练习题(期末复习题目附答案)

此为第六章贝叶斯分类

一. 单选题
1. ‍假设会开车的本科生比例是15%,会开车的研究生比例是23%。若在某大学研究生占学生比例是20%,则会开车的学生是研究生的概率是多少?

A. 80%
B. 27.7%
C. 16.6%
D. 23%

正确答案: B

  1. 下列关于朴素贝叶斯的特点说法错误的是()
    A. 朴素贝叶斯处理过程简单,分类速度快
    B. 朴素贝叶斯模型无需假设特征条件独立
    C. 朴素贝叶斯模型发源于古典数学理论,数学基础坚实
    D. 朴素贝叶斯对小规模数据表现较好

正确答案: B

  1. 以下算法不属于生成模型 ( )
    A. 支持向量机
    B. 朴素贝叶斯模型
    C. 隐马尔科夫模型
    D. 混合高斯模型

正确答案: A

  1. 关于拉普拉斯平滑说法正确的是()
    A. 会使得最终结果可能大于1
    B. 加上拉普拉斯平滑有助于提高学习性能
    C. 以上说法都不对
    D. 避免了出现概率为0的情况

正确答案: D

  1. 假设X和Y都服从正态分布,那么P(X

正确答案: C

  1. 以下算法属于判别模型的是( )
    A. 线性回归
    B. 朴素贝叶斯模型
    C. 深度信念网络
    D. 隐马尔科夫模型

正确答案: A

  1. 市场上某商品来自两个工厂,它们市场占有率分别为60%和40%,有两人各自买一件,则买到的来自不同工厂之概率为( )。
    A. 0.3
    B. 0.48
    C. 0.5
    D. 0.24

正确答案: B

  1. 以A表示事件”甲种产品畅销,乙种产品滞销”,则其对立事件A为( )
    A. 甲,乙两种产品均畅销
    B. 甲种产品滞销
    C. 甲种产品滞销,乙种产品畅销
    D. 甲种产品滞销或乙种产品畅销

正确答案: D

  1. 关于朴素贝叶斯,下列说法错误的是:( )
    A. 朴素的意义在于它的一个天真的假设:所有特征之间是相互独立的
    B. 它是一个分类算法
    C. 它实际上是将多条件下的条件概率转换成了单一条件下的条件概率,简化了计算
    D. 朴素贝叶斯不需要使用联合概率

正确答案: D

  1. 掷二枚骰子,事件A为出现的点数之和等于3的概率为( )
    A. 都不对
    B. 1/18
    C. 1/11
    D. 1/6

正确答案: B

二. 判断题
11. ‍朴素贝叶斯模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性相关性较小时,朴素贝叶斯性能良好。而在属性个数比较多或者属性之间相关性较大时,分类效果不好。
A. 对
B. 错

正确答案: 对

  1. 逻辑回归是生成模型,朴素贝叶斯是判别模型
    A. 对
    B. 错

正确答案: 错

  1. 逻辑回归和朴素贝叶斯都有对属性特征独立的要求
    A. 对
    B. 错

正确答案: 错

  1. 朴素贝叶斯法的基本假设是条件独立性。
    A. 对
    B. 错

正确答案: 对

此为第七章KNN

一. 单选题
1. ‍下列哪个距离度量不在KNN算法中体现:( )。
A. 曼哈顿距离
B. 欧氏距离
C. 切比雪夫距离
D. 余弦相似度

正确答案: D

  1. ‍下列选项中,关于KNN算法说法不正确是:( )。
    A. 效率很高
    B. 实现过程相对简单,但是可解释性不强
    C. 默认使用欧氏距离度量
    D. 能找出与待预测样本相近的K个样本

正确答案: A

  1. ‍以下距离度量方法中,在城市道路里,要从一个十字路口开车到另外一个十字路口的距离是: ( )。
    A. 欧氏距离
    B. 夹角余弦
    C. 切比雪夫距离
    D. 曼哈顿距离

正确答案: D

  1. 以下哪项是KNN算法的缺点?( )
    A. 对异常值不敏感
    B. 低精度
    C. 计算成本高
    D. 需要的内存非常少

正确答案: C

  1. 关于余弦相似度,不正确的是( )。
    A. 余弦相似度的结果和向量的长度无关
    B. 余弦相似度的范围为[-1,1]
    C. 余弦相似度为1的时候,两个向量完全相关
    D. 余弦相似度为-1时候,两个向量完全不相关

正确答案: D

  1. ‍KD树(K-Dimension Tree)的描述中,不正确的是( )。
    A. KD树可以用更高的效率来对空间进行划分
    B. KD树是二叉树
    C. KD树切分时,从方差小的维度开始切分
    D. KD树的结构非常适合寻找最近邻居和碰撞检测

正确答案: C

  1. 假设有 6 个二维数据点:D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分时候,切分线为( )。
    A. x=5
    B. x=6
    C. y=5
    D. y=6

正确答案: B

  1. ‍KNN算法在什么情况下效果较好?( )
    A. 样本较少但典型性好
    B. 样本呈团状分布
    C. 样本较多但典型性不好
    D. 样本呈链状分布

正确答案: A

  1. ‍两个向量的长度分别为1和2,两者之间的夹角为60度,则以下选项错误的是( )。
    A. 余弦相似度为正
    B. 余弦相似度为0.5
    C. 余弦相似度的值与向量的长度无关,只和向量之间的夹角有关
    D. 余弦相似度没法计算,因为没给出具体坐标值

正确答案: D

二. 多选题
10. ‍影响KNN算法效果的主要因素包括( )。
A. 最邻近数据的距离
B. 距离度量方式
C. 决策规则
D. K的值

正确答案: BCD

  1. ‍以下关于KNN说法正确的是 ( )。
    A. 可解释性好
    B. 对异常值不敏感
    C. 计算复杂度低
    D. 对数据没有假设

正确答案: BCD

  1. KNN算法的缺点包括以下几点?( )
    A. 计算复杂性高;空间复杂性高,尤其是特征数非常多的时候
    B. 可解释性差,无法给出决策树那样的规则
    C. 对异常值敏感
    D. 对训练数据依赖度特别大,当样本不平衡的时候,对少数类的预测准确率低

正确答案: ABD

三. 判断题
13. 两个向量的余弦相似度越接近1,说明两者越相似。
A. 对
B. 错

正确答案: 对

  1. k近邻法(k-Nearest Neighbor,kNN)是一种比较成熟也是最简单的机器学习算法,可以用于分类,但不能用于回归方法。
    A. 对
    B. 错

正确答案: 错

  1. ‍ ‎KNN没有显式的训练过程,它在训练阶段只是把数据保存下来,训练时间开销为0,等收到测试样本后进行处理。
    A. 对
    B. 错

正确答案: 对

  1. ‍KNN分类的时候,对新的样本,根据其k个最近邻的训练样本的类别,通过多数表决等方式进行预测。
    A. 对
    B. 错

正确答案: 对

Original: https://blog.csdn.net/m0_50962679/article/details/124707045
Author: 打算改个好听的名字
Title: 机器学习课后练习题(期末复习题目附答案)

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/662134/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球