本答案对应课程为:点我自动跳转查看
本课程任课教师为:赵卫东;董亮
本课程起止时间为:2021-03-15到2021-07-15
本篇答案更新状态:暂停更新

第一单元 神经网络基础 神经网络基础

1、 问题:下面哪种结果不是利用机器学习算法从数据中得到的?
选项:
A:神经网络
B:规则
C:回归模型
D:常识
答案: 【常识

2、 问题:有关神经网络训练时使用的学习率参数说法错误的是?
选项:
A:学习率可以与其他网络参数一起训练,对降低代价函数是有利的。
B:学习率过大更容易导致训练陷入局部极小值。
C:学习率可以随着训练误差动态调整效果更好。
D:网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。
答案: 【学习率过大更容易导致训练陷入局部极小值。

3、 问题:下面哪个选项不是神经网络训练过程中过拟合的防止方法?
选项:
A:增加学习率
B:L2正则化
C:dropout
D:提前终止
答案: 【增加学习率

4、 问题:下面有关神经网络的说法,错误的是?
选项:
A:神经网络神经元的输出都是传给其他神经元,不能再反馈回来
B:神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化
C:均方差损失函数是神经网络常用的一种代价函数(损失函数)
D:神经网络不同层次的神经元可以使用不同的激活函数
答案: 【神经网络神经元的输出都是传给其他神经元,不能再反馈回来

5、 问题:关于训练样本的描述中,正确的说法是哪个?
选项:
A:如果模型性能不佳,可增加样本多样性进行优化
B:增加数据可以减少模型方差
C:样本越多,模型训练越快,性能越好
D:样本越少,模型的方差越大
答案: 【样本越少,模型的方差越大

6、 问题: 有关BP神经网络的说法,错误的是哪个?
选项:
A:易陷入局部极小值
B:训练次数多,学习效率低,收敛速度慢
C: 隐层节点的选取缺乏理论指导
D:训练时新样本的加入对已经学习的结果没什么影响
答案: 【训练时新样本的加入对已经学习的结果没什么影响

7、 问题:有关神经网络参数初始化的说法错误的是哪个?
选项:
A:权重和偏置都可以取全零初始化
B:使用正态分布初始化,但权重取太大或太小都会影响网络的训练
C:Xavier初始化可以减少梯度消失
D:合适的权重初始化可以加快神经网络的训练和效果
答案: 【权重和偏置都可以取全零初始化

8、 问题:有关BP网络的说法,哪个是错误的?
选项:
A:在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能
B:与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数
C:交叉熵也可以作为回归预测问题的损失函数
D:神经元的激活函数选择影响神经网络的训练过程和最终性能
答案: 【交叉熵也可以作为回归预测问题的损失函数

9、 问题:sigmoid激活函数y=1/(1+)的导数是以下哪一个?
选项:
A:y(1-y)
B:1-
C:1+lnx
D:1-lnx
答案: 【y(1-y)

10、 问题:梯度消失问题的认识哪个是正确的?
选项:
A:隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B:神经元处于Sigmoid等激活函数的饱和区工作
C:隐藏层神经元的个数太多导致
D:隐层的权重取值太小不容易导致梯度消失
答案: 【隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新

11、 问题:有关数据预处理对神经网络的影响,以下哪个说法是错误的?
选项:
A:对于非数值型的属性,可以使用独热(onehot)编码或模糊化转换成数值
B:连续性属性可以采用最小最大值归一化,减少数值过大和不同属性量纲不同对网络的影响
C:预处理与否对神经网络的训练速度和分类准确率影响比较大
D:BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力
答案: 【BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力

12、 问题:下面关于单个神经元输入输出正确的是哪个?
选项:
A:一个神经元只能拥有一个输入和一个输出下面关于单个神经元输入输出正确的是?
B: 一个神经元只能拥有一个输入但可以有多个输出
C: 一个神经元可以有多个输入和多个输出
D:一个神经元可以拥有多个输入但只有一个输出
答案: 【 一个神经元可以有多个输入和多个输出

13、 问题:一个含有2个隐层的BP神经网络,神经元个数都为20,输入和输出节点分别有8和5个节点,这个网络的权重和偏置数分别是多少?
选项:
A:660,45
B:3200,45
C:16000,48
D:3000,32
答案: 【660,45

14、 问题:以下不属于超参的是哪个因素?
选项:
A:激活函数
B:学习步长(率)和冲量引子
C:输出编码形式
D:mini-batch的样本数
答案: 【输出编码形式

15、 问题:有关神经网络训练过程的说法,正确的是?
选项:
A:使用增加训练次数的方法不一定可以减少代价函数的取值
B:分析问题确定后,神经网络合适的结构就可以确定
C:神经网络权重的初始化大小会对网络的训练结果影响
D:对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素
答案: 【使用增加训练次数的方法不一定可以减少代价函数的取值;
神经网络权重的初始化大小会对网络的训练结果影响;
对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素

16、 问题:激活函数通常具有以下哪些性质?
选项:
A:单调性
B:非线性
C:计算简单
D:可微性
答案: 【单调性;
非线性;
计算简单;
可微性

17、 问题:关于模型参数(权重值)的描述,正确的说法是哪些?
选项:
A:每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小
B:训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中
C:在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少
D:模型参数量越多越好,但没有固定的对应规则
答案: 【每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小;
训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中;
在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少

18、 问题:减少神经网络过拟合的说法,以下哪些是正确的?
选项:
A:通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合
B:通过增加数据扰动的数据增强增加了神经网络的过拟合
C:利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
D:在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
答案: 【通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合;
利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合;
在神经网络训练过程中类似dropout减少神经元或相关链接权的数量

19、 问题:有关数据增强的说法正确是哪些?
选项:
A:对于分类问题,数据增强是减少数据不平衡的一种方法。
B:对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果
C:数据增强会增加样本的个数,因此可能会减少过拟合
D:数据增强带来了噪声,因此一般会降低神经网络模型的效果
答案: 【对于分类问题,数据增强是减少数据不平衡的一种方法。;
对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果;
数据增强会增加样本的个数,因此可能会减少过拟合

第二单元 深度学习在人工智能中的应用 深度学习的应用

1、 问题:以下哪种问题不适合使用深度学习解决?
选项:
A:人脸识别
B:银行信用卡客户欺诈检测
C:自动导播语音合成
D:机器人写·诗
答案: 【银行信用卡客户欺诈检测

2、 问题:有关人工智能、深度学习和机器学习的关系,以下哪个认识是错误的?
选项:
A:机器学习是人工智能的核心技术之一,也是实现人工智能的重要基础。
B:深度学习与机器学习是相对独立的技术
C:深度学习算法和传统的机器学习算法构成了机器学习理论体系

本门课程剩余章节答案为付费内容
本文章不含期末不含主观题!!
本文章不含期末不含主观题!!
支付后可长期查看
有疑问请添加客服QQ 2356025045反馈
如遇卡顿看不了请换个浏览器即可打开
请看清楚了再购买哦,电子资源购买后不支持退款哦

   

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注