您当前的位置: 首页 >  人工智能

中国大学MOOC 人工智能导论第七章测试

发布时间:2020-05-03 13:00:16 ,浏览量:0

1
单选(2.5分)

下列关于有监督学习的说法不正确的是

得分/总分
  • A.

    支持向量机模型中距离平面最近的几个样本对平面的选择影响最大

  • B.

    决策树算法中最能将样本数据显著分开的属性应该在决策早期就使用

  • C.

    K近邻算法中K值的选择对分类的结果影响不大

    2.50/2.50
  • D.

    模型测试阶段的测试数据集不能与训练数据集有交集

2
单选(2.5分)

下列关于有监督和无监督学习说法中不正确的是

得分/总分
  • A.

    有监督学习有明确的学习目标,而无监督学习没有

    2.50/2.50
  • B.

    K近邻算法中无需对训练数据进行训练

  • C.

    有监督学习训练数据的获得需要专业人士进行标注

  • D.

    无监督学习与有监督学习相比更加接近人类学习的过程

3
单选(2.5分)

下列关于强化学习的说法正确的是

得分/总分
  • A.

    强化学习的概念是从Alphago战胜李世石之后才提出的

  • B.

    强化学习属于无监督学习的一种,不需要有监督信息

  • C.

    强化学习和有监督学习的过程相似,是“开环”的过程

  • D.

    在强化学习中,计算机通过不断与环境交互并通过环境反馈来逐渐适应环境

    2.50/2.50
4
单选(2.5分)

下列不属于有监督机器学习的典型方法的是

得分/总分
  • A.

    支持向量机

  • B.

    聚类

    2.50/2.50
  • C.

    K近邻算法

  • D.

    决策树算法

5
单选(2.5分)

以下关于无监督学习说法错误的是

得分/总分
  • A.

    聚类算法中,同一类别内部样本的相似度较低

    2.50/2.50
  • B.

    聚类算法中,不同类别之间样本不交叉

  • C.

    自动编码器常应用于图像抗噪和数据降维

  • D.

    与有监督学习相比,无监督学习更接近人类学习的过程

6
单选(2.5分)

关于机器学习说法有误的:

得分/总分
  • A.

    机器学习就是有监督学习

    2.50/2.50
  • B.

    机器学习需要数据集

  • C.

    只有有监督学习需要数据集

  • D.

    机器学习分为有监督和无监督等

7
单选(2.5分)

描述弱监督的是:

得分/总分
  • A.

    以上都不是

  • B.

    方法简单、数据成本低、性能难以提升

  • C.

    对部分数据引入监督

    2.50/2.50
  • D.

    方法丰富、研究充分、性能好、成本高

8
单选(2.5分)

关于迁移学习说法有误的是:

得分/总分
  • A.

    模型迁移也属于迁移学习

  • B.

    模拟人类具有举一反三的能力

  • C.

    任务A 与 任务B 具有某种相似性,利用任务A的学习经验,解决任务B,即迁移学习

  • D.

    迁移学习就是特征迁移

    2.50/2.50
9
单选(2.5分)

关于无监督学习不正确的说法是:

得分/总分
  • A.

    聚类大量依赖于距离或者相似度计算

  • B.

    自动编码器的可以应用于图像降噪

  • C.

    自动编码器是有监督学习

    2.50/2.50
  • D.

    自动编码器的可以应用于数据降维

10
单选(2.5分)

关于决策树,说法有误的是:

得分/总分
  • A.

    规则归纳问题,适合用决策树来表示

  • B.

    决策树算法是无监督学习

    2.50/2.50
  • C.

    属性在决策树中的位置不同,决策树的效率是不同的

  • D.

    如果根据一个属性做判断,样本仍然有若干种情况,则该属性不应该出现在决策早期

关注
打赏
1688896170
查看更多评论

暂无认证

  • 0浏览

    0关注

    109732博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文
立即登录/注册

微信扫码登录

0.1559s