第一章 绪论

绪论

1、单选题:
‍下列哪位是人工智能之父?‌
选项:
A: Marniv Lee Minsky
B: HerbertA.Simon
C: Allen Newell
D: John Clifford Shaw
答案: 【 Marniv Lee Minsky

2、单选题:
‎根据王珏的理解,下列不属于对问题空间W的统计描述是​
选项:
A: 一致性假设
B: 划分
C: 泛化能力
D: 学习能力
答案: 【 学习能力

3、单选题:
‏下列描述无监督学习错误的是‌
选项:
A: 无标签
B: 核心是聚类
C: 不需要降维
D: 具有很好的解释性
答案: 【 不需要降维

4、单选题:
‌下列描述有监督学习错误的是‏
选项:
A: 有标签
B: 核心是分类
C: 所有数据都相互独立分布
D: 分类原因不透明
答案: 【 所有数据都相互独立分布

5、单选题:
‎下列哪种归纳学习采用符号表示方式?‍
选项:
A:  经验归纳学习
B: 遗传算法
C: 联接学习
D: 强化学习
答案: 【  经验归纳学习

6、单选题:
‎混淆矩阵的假正是指‍
选项:
A: 模型预测为正的正样本
B: 模型预测为正的负样本
C: 模型预测为负的正样本
D: 模型预测为负的负样本
答案: 【 模型预测为正的负样本

7、单选题:
‌混淆矩阵的真负率公式是为‍
选项:
A: TP/(TP+FN)
B: FP/(FP+TN)
C: FN/(TP+FN)
D: TN/(TN+FP)
答案: 【 TN/(TN+FP)

8、单选题:
​混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是‏
选项:
A: 1/4
B: 1/2
C: 4/7
D: 4/6
答案: 【 1/2

9、单选题:
‏混淆矩阵中的TP=16,FP=12,FN=8,TN=4,精确率是‍
选项:
A: 1/4
B: 1/2
C: 4/7
D: 2/3
答案: 【 4/7

10、单选题:
‎混淆矩阵中的TP=16,FP=12,FN=8,TN=4,召回率是‏
选项:
A: 1/4
B: 1/2
C: 4/7
D: 2/3
答案: 【 2/3

11、单选题:
‍混淆矩阵中的TP=16,FP=12,FN=8,TN=4,F1-score是‍
选项:
A: 4/13
B: 8/13
C: 4/7
D: 2/3
答案: 【 8/13

第二章 期望最大化算法

期望最大化算法

1、单选题:
‎EM算法的E和M指什么?‏
选项:
A: Expectation-Maximum
B: Expect-Maximum
C: Extra-Maximum
D: Extra-Max
答案: 【 Expectation-Maximum

2、单选题:
‍EM算法的核心思想是?‍
选项:
A: 通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。
B: 列出优化目标函数,通过方法计算出最优值。
C: 列出优化目标函数,通过数值优化方法计算出最优值。
D: 列出优化目标函数,通过坐标下降的优化方法计算出最优值。
答案: 【 通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。

3、判断题:
‌关于EM算法的收敛性,EM算法理论上不能够保证收敛。‏
选项:
A: 正确
B: 错误
答案: 【 错误

4、判断题:
‏关于EM算法的用途,EM算法只适用不完全数据的情形。‌
选项:
A: 正确
B: 错误
答案: 【 错误

5、判断题:
​Jessen不等式等号成立的条件是:变量为常数‏
选项:
A: 正确
B: 错误
答案: 【 正确

6、判断题:
​Jessen不等式E(f(x)) >= f(E(x)), 左边部分大于等于右边部分的条件是函数f是凸函数,如果f是凹函数,左边部分应该是小于等于右边部分。‎
选项:
A: 正确
B: 错误
答案: 【 正确

7、判断题:
‌EM算法因为是理论可以保证收敛的,所以肯定能够取得最优解。​
选项:
A: 正确
B: 错误
答案: 【 错误

8、判断题:
​EM算法首先猜测每个数据来自哪个高斯分布,然后求取每个高斯的参数,之后再去重新猜测每个数据来自哪个高斯分布,类推进一步迭代,直到收敛,从而得到最后的参数估计值。‏
选项:
A: 正确
B: 错误
答案: 【 正确

9、判断题:
‏EM算法,具有通用的求解形式,因此对任何问题,其求解过程都是一样,都能很容易求得结果。​
选项:
A: 正确
B: 错误
答案: 【 错误

10、判断题:
​EM算法通常不需要设置步长,而且收敛速度一般很快。‍
选项:
A: 正确
B: 错误
答案: 【 正确

第三章 主题建模

主题建模

1、单选题:
‎LDA模型的隐变量Z是‌
选项:
A: 每个词对应的主题
B: 每篇文档对应的主题
C: 每段话对应的主题
D: 每个词组对应的主题
答案: 【 每个词对应的主题

2、单选题:
​LDA模型中的一个主题指:‌
选项:
A: 词集合上的一个概率分布
B: 词组集合上的一个概率分布
C: 整个文档上的一个概率分布
D: 整个文档集合上的一个概率分布
答案: 【 词集合上的一个概率分布

3、多选题:
‍LDA模型在做参数估计时,最常用的方法是‏
选项:
A: Gibbs采样方法
B: 变分推断
C: 梯度下降
D: Beam search
答案: 【 Gibbs采样方法;
变分推断

4、判断题:
​吉布斯采样是一种通用的采样方法,对于任何概率分布都可以采样出对应的样本。​
选项:
A: 正确
B: 错误
答案: 【 错误

5、判断题:
‎LDA模型的核心假设是:假设每个文档首先由主题分布表示,然后主题由词概率分布表示,形成文档-主题-词的三级层次。‎
选项:
A: 正确
B: 错误
答案: 【 正确

6、判断题:
​Gibbs采样是一类通用的采样方法,和M-H采样方法没有任何关系。‎
选项:
A: 正确
B: 错误
答案: 【 错误

7、判断题:
‎关于LDA模型中的K,K的指定,必须考虑数据集合的特点,选择一个较为优化的数值。‌
选项:
A: 正确
B: 错误
答案: 【 错误

8、判断题:
‏LDA模型是一种生成式模型‎
选项:
A: 正确
B: 错误
答案: 【 正确

9、判断题:
‍主题建模的关键是确定数据集合的主题个数。​
选项:
A: 正确
B: 错误
答案: 【 错误

10、判断题:
‎主题建模本质上是:​‎一种新的文档表示方法,主要是通过主题的分布来表示一个文档。​‎一种数据压缩方法,将文档压缩在更小的空间中。​‎​
选项:
A: 正确
B: 错误
答案: 【 正确

第四章 支持向量机

支持向量机

1、单选题:
‎SVM算法的性能取决于:‎
选项:
A: 核函数的选择
B: 软间隔参数      
C: 核函数的参数
D: 以上所有
答案: 【 以上所有

2、单选题:
‏SVM中的代价参数C表示什么?‍
选项:
A: 交叉验证的次数
B: 用到的核函数
C: 在分类准确性和模型复杂度之间的权衡
D: 以上都不对
答案: 【 在分类准确性和模型复杂度之间的权衡

3、单选题:
‏下列有关支持向量机说法不正确的是:‌
选项:
A: 采用结构风险最小化原理
B: 具有很好的推广能力
C: 是凸二次优化问题
D: 得到的是局部最优解
答案: 【 得到的是局部最优解

4、单选题:
‌下列有关核函数不正确的是:‎
选项:
A: 极大地提高了学习机器的非线性处理能力
B: 函数与非线性映射并不是一一对应的关系
C: 满足Mercer条件的函数不一定能作为支持向量机的核函数
D: 可以采用cross-va1idalion方法选择最佳核函数
答案: 【 满足Mercer条件的函数不一定能作为支持向量机的核函数

5、单选题:
‍一对一法分类器,k个类别需要多少个SVM:‌
选项:
A: k
B: k!
C: k(k-1)/2
D: k(k-1)
答案: 【 k(k-1)/2

6、判断题:
​SVM中的泛化误差代表SVM对新数据的预测准确度‌
选项:
A: 正确
B: 错误
答案: 【 正确

剩余75%内容付费后可查看

发表评论

电子邮件地址不会被公开。 必填项已用*标注