01神经网络基础

神经网络的基础知识

1、单选题:
​下面关于神经元输入输出正确的是?‏
选项:
A: 一个神经元只能拥有一个输入和一个输出
B: 一个神经元只能拥有一个输入但可以有多个输出
C: 一个神经元可以有多个输入和输出
D: 一个神经元可以拥有多个输入但只有一个输出
答案: 【 一个神经元可以有多个输入和输出

2、单选题:
有关神经网络训练时使用的学习率参数说法错误的是?‍
选项:
A: 学习率过大更容易导致训练陷入局部极小值
B: 学习率可以与其他网络参数一起训练,对降低代价函数是有利的
C: 学习率可以随着训练误差动态调整效果更好
D: 网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡
答案: 【 学习率过大更容易导致训练陷入局部极小值

3、单选题:
下面哪个选项不是神经网络训练过程中过拟合的防止方法?‌
选项:
A: 增加学习率
B: L2正则化
C: dropout
D: 提前终止
答案: 【 增加学习率

4、单选题:
关于训练样本的描述中,正确的说法是哪些?‌
选项:
A: 样本越少,模型的方差越大
B: 如果模型性能不佳,可减少样本多样性进行优化
C: 增加数据可以减少模型方差
D: 样本越多,模型训练越快,性能越好
答案: 【 样本越少,模型的方差越大

5、单选题:
有关BP神经网络的说法,错误是哪个?‌
选项:
A: 训练时新样本的加入对已经学习的样本没影响
B: 易陷入局部极小值
C: 学习效率低,收敛速度慢
D: 隐层的个数以及隐层节点的数量选取缺乏理论指导
答案: 【 训练时新样本的加入对已经学习的样本没影响

6、单选题:
有关神经网络参数初始化的说法错误的是哪个?​
选项:
A: 权重和偏置都可以取全零初始化
B: 使用正态分布初始化,但权重取太大或太小都会影响网络的训练
C: Xavier初始化可以减少梯度消失
D: 合适的权重初始化可以加快神经网络的训练和效果
答案: 【 权重和偏置都可以取全零初始化

7、单选题:
减少神经网络过拟合的说法,以下哪些是错误的?‎
选项:
A: 通过正则化可以减少网络参数的个数,一定程度可能增加过拟合
B: 利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
C: 在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
D: 通过增加数据扰动的数据增强减少了神经网络的过拟合
答案: 【 通过正则化可以减少网络参数的个数,一定程度可能增加过拟合

8、单选题:
有关BP网络的说法,哪个是正确的?‎
选项:
A: 交叉熵也可以作为分类预测问题的损失函数
B: 在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C: 与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D: 神经元的激活函数选择不影响神经网络的训练过程和最终性能
答案: 【 交叉熵也可以作为分类预测问题的损失函数

9、单选题:
梯度消失问题的认识哪个是正确的?‍
选项:
A: 隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B: 神经元处于Sigmoid等激活函数的饱和区工作,梯度值偏小
C: 隐藏层神经元的个数太多导致
D: 隐层的权重取值大容易导致梯度消失
答案: 【 隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新

10、单选题:
一个含有2个隐层的BP神经网络,神经元个数都为20,输入和输出节点分别有8和5个节点,这个网络的权重和偏置数分别是多少?‎
选项:
A: 660,45
B: 3200,45
C: 16000,48
D: 3000,32
答案: 【 660,45

11、单选题:
以下不属于超参的是哪个因素?‏
选项:
A: 输出编码形式
B: 激活函数
C: 学习步长(率)和冲量引子
D: mini-batch的样本数
答案: 【 输出编码形式

12、单选题:
‏AI的应用领域十分广泛,以下属于人工智能AI应用领域的是?‌
选项:
A: 商品零售业 
B: 公共交通
C: 视频监控
D: 其他都是
答案: 【 其他都是

13、单选题:
​以下有关OpenVINO平台的认识错误的是哪个?​
选项:
A: 免费的
B: 支持主流的机器视觉功能
C: 基于典型卷积神经网络 以及英特尔® 硬件(包括加速器),实现性能最大化
D: 一种云计算平台
答案: 【 一种云计算平台

14、单选题:
‌下面哪项不是机器视觉的功能?‏
选项:
A: 目标检测
B: 图像分类
C: 人体步态识别
D: 计算机写诗
答案: 【 计算机写诗

15、多选题:
​下面哪些是深度学习快速发展的原因?‎
选项:
A: 更快的计算能力
B: 神经网络是一个新领域
C: 可以获得更多的数据
D: 性能更好的算法
答案: 【 更快的计算能力;
可以获得更多的数据;
性能更好的算法

16、多选题:
‎有关BP神经网络的不足的说法哪些是正确的?‏
选项:
A: 易陷入局部极小
B: 学习效率低
C: 隐节点的个数可以随意取
D: 检验时新样本与训练样本差别大泛化效果弱
答案: 【 易陷入局部极小;
学习效率低;
检验时新样本与训练样本差别大泛化效果弱

17、多选题:
有关神经网络训练过程的说法,正确的是?‎
选项:
A: 使用增加训练次数的方法不一定可以减少代价函数的取值
B: 神经网络权重的初始化大小会对网络的训练结果无影响
C: 对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素
D: 分析问题确定后,神经网络合适的结构就可以确定
答案: 【 使用增加训练次数的方法不一定可以减少代价函数的取值;
对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素

18、多选题:
下面有关神经网络的说法,正确的是?‏
选项:
A: 神经网络神经元的输出都是传给其他神经元,不能再反馈回来
B: 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化
C: 均方差损失函数是神经网络常用的一种代价函数(损失函数)
D: 神经网络不同层次的神经元可以使用不同的激活函数
答案: 【 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化;
均方差损失函数是神经网络常用的一种代价函数(损失函数);
神经网络不同层次的神经元可以使用不同的激活函数

19、多选题:
关于模型参数(权重值)的描述,正确的说法是哪些?‏
选项:
A: 每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小
B: 训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中
C: 在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少
D: 模型参数量越多越好,但没有固定的对应规则
答案: 【 每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小;
训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中;
在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少

20、多选题:
​下面哪些场景适合目标检测?‍
选项:
A: 作业帮以图搜图查询答案
B: 车牌检测
C: 通过摄像头从一群人中搜索嫌疑犯
D: 把一行句子分词
答案: 【 作业帮以图搜图查询答案;
车牌检测;
通过摄像头从一群人中搜索嫌疑犯

21、多选题:
‎下面有关深度学习、目标检测和边缘计算的说法,正确的是哪些?‌
选项:
A: 目标检测常使用深度学习中卷积神经网络模型
B: 训练好的目标检测算法可以用于边缘计算
C: 机器视觉场景往往需要应用边缘计算
D: 边缘计算就是一种人工智能
答案: 【

剩余75%内容付费后可查看

发表评论

电子邮件地址不会被公开。 必填项已用*标注