以下关于状态空间图的说法错误的是
-
A.
状态之间的连接指的是衔接、转移、导致等关系
-
B.
状态空间图未必一定能画出来
-
C.
将状态和连接合在一起可以构成状态图
-
D.
将一个复杂问题表示成多个连续的状态
2.50/2.50
首先考虑同级别的状态是什么搜索方法
-
A.
宽度优先搜索
2.50/2.50 -
B.
贪婪搜索
-
C.
启发式搜索策略
-
D.
深度优先搜索
下列说法不正确的是
-
A.
农夫过桥问题的状态图有明确的“解状态”,即全都过河
-
B.
固定深度的博弈搜索根据人们在实际对弈中往往只向前考虑几步的情况提出
-
C.
启发式搜索中h(n)的比重过大会导致问题找不到最优解
-
D.
贪婪搜索够在“0-1背包问题”中获得全局最优解
2.50/2.50
一下对盲目搜索几种搜索方式的说法错误的是
-
A.
宽度优先搜索会首先考虑同级别状态,然后再进入下一层继续搜索
-
B.
深度优先搜索会首先考虑纵身搜索,然后回溯上一层
-
C.
贪婪搜索每一步都会选择使当前步骤获利最大的下一步
-
D.
深度优先搜索会在最深的层次找到当前情况下最好的选择
2.50/2.50
关于启发式搜索的说法正确的是
-
A.
启发式函数只有一种量化方法。
-
B.
启发函数可以衡量两个状态孰优孰劣
2.50/2.50 -
C.
启发式函数是主观上的评价,并在不同任务上有不同表示方法
-
D.
大多数启发式搜索都有启发函数
以下说法错误的是
-
A.
博弈搜索中,可以将最大化对方的得分转化为最小化我方得分
-
B.
启发式搜索在生活中有很多应用,如语音识别等
-
C.
博弈搜索考虑的是多个角色的最优路径选择问题
-
D.
启发函数的性能与启发知识的数量成正比
2.50/2.50
以下说法错误的是
-
A.
阿尔法狗的是典型的贪心算法代表
2.50/2.50 -
B.
博弈搜索中角色做出决策时要考虑到自己与对手双方的情况和反应
-
C.
固定深度的博弈搜索可以看作是宽度优先的
-
D.
围棋的复杂性导致其曾在一段时间之内无法被博弈算法有效突破
关于固定深度的博弈搜索说法错误的是
-
A.
构建出“极大极小”状态子图,转化为状态子图上的极大极小博弈搜索。
-
B.
只在当前MAX状态下向下探索固定的层数,如五层;
-
C.
棋手只考虑向下“若干步”可能出现的棋局
-
D.
可以看作是“深度优先”的
2.50/2.50
说法错误的是
-
A.
蒙特卡洛树搜索”方式,以“信心上限决策”打分,使计算机围棋能力得到质的提升。为后续方法奠定基础。
-
B.
Alpha Go问世,将深度学习、价值网络、蒙特卡洛树搜索技术融合,战胜人类顶尖棋手
-
C.
α-β剪枝使用到了宽度优先算法
2.50/2.50 -
D.
α-β剪枝在很长一段时间里都是棋类算法的代表,取得一系列成就
关于盲目搜索策略的说法不正确的是
-
A.
贪婪搜索的搜索速度非常快
-
B.
贪婪搜索总是做出在当前看来最好的选择
-
C.
深度优先搜索首先考虑同级的状态,宽度优先搜索首先考虑纵深探索
2.50/2.50 -
D.
深度优先和宽度优先搜索的适应性强,但效率往往不高。