本答案对应课程为:点我自动跳转查看
本课程起止时间为:2020-02-27到2020-07-31
本篇答案更新状态:已完结

第一讲 深度学习概述 第一讲测验

1、 问题:机器学习(深度学习)系统中通常将数据集划分为训练集和测试集,其中被用来学习得到系统的参数取值的是
选项:
A:训练集(training set)
B:测试集(testing set)
C:训练集(training set)和测试集(testing set)
D:其它答案都不对
答案: 【训练集(training set)

2、 问题:k折交叉验证通常将数据集随机分为k个子集。下列关于k折交叉验证说法错误的是
选项:
A:每次将其中一个子集作为测试集,剩下k-1个子集作为训练集进行训练
B:每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试
C:划分时有多种方法,例如对非平衡数据可以用分层采样,就是在每一份子集中都保持和原始数据集相同的类别比例
D:k折交叉验证相对于留出法,其性能评价结果通常要相对更稳定一些
答案: 【每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试

3、 问题:ROC (受试者工作特征曲线, receiver operating characteristic curve)描绘了分类器在 fp rate (错误的正例,横轴) 和tp rate(真正正例,纵轴) 间的trade-off(权衡)。下面说法正确的是:
选项:
A:(纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高
B:(纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率高
C: (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率低
D: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率低
答案: 【(纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高

4、 问题:关于 Cohen’ s kappa取值的含义,下列错误的是:
选项:
A:其取值通常在-1和+1之间
B:其取值为+1,说明一致性最好
C:其取值越大,说明一致性越好
D:其取值越小,说明一致性越好
答案: 【其取值越小,说明一致性越好

5、 问题:下列关于验证集(validation set)的描述错误的是
选项:
A:某些情况下,可以对训练集做进一步划分,即分为训练集和验证集
B:验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果
C: 验证集与测试集之间的区别是,验证集主要用于模型选择和调整超参数,因而一般不用于报告最终结果
D:验证集的数据规模通常小于训练集的数据规模
答案: 【验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果

6、 问题: 下面关于机器学习与深度学习的描述错误的是:
选项:
A:深度学习是机器学习的重要分支
B:深度学习来源于人工神经网络
C:深度学习是多层的人工神经网络,典型的模型包括卷积神经网络等
D:其它答案都不对
答案: 【其它答案都不对

7、 问题:下面关于有监督学习、无监督学习的描述错误的是
选项:
A:有监督学习是从有正确答案的样本集合中学习,即每个样本的分类标签(classification label)或者目标值(target value)已知
B:无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)
C:有监督学习中样本的ground truth指的是每个样本的真实分类标签(classification label)或者真实目标值(target value)
D:为了获得有监督学习中样本的真实分类标签(classification label)或者真实目标值(target value),某些情况下,可以采用人工专家标注的方法获得
答案: 【无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)

8、 问题:假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则其ROC曲线的横轴FP Rate 和纵轴TP Rate 的坐标值是多少? 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
选项:
A:横轴FP Rate=0.57; 纵轴TP Rate=0.33
B:横轴FP Rate=0.33; 纵轴TP Rate=0.57
C:横轴FP Rate=0.57; 纵轴TP Rate=0.57
D:横轴FP Rate=0.80; 纵轴TP Rate=0.33
答案: 【横轴FP Rate=0.33; 纵轴TP Rate=0.57

9、 问题:下面的一段python程序是对iris数据集进行训练集合测试集的拆分,已知该数据集中样本的个数为150个,特征为4个。则下面的程序执行完毕后,print语句的输出结果应该为: from sklearn import cross_validation  from sklearn import datasets  iris = datasets.load_iris()  X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )print ("X_train.shape:", X_train.shape, "y_train.shape:", y_train.shape)
选项:
A:   (‘X_train.shape:’, (150, 4), ‘y_train.shape:’, (150,))
B:  (‘X_train.shape:’, (90, 4), ‘y_train.shape:’, (90,))
C:(‘X_train.shape:’, (30, 4), ‘y_train.shape:’, (30,))
D: (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))
答案: 【 (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))

10、 问题:下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,且该程序已经导入了必要的模块(用省略号表示)。则程序中空格处应该填充的拟合函数是: ……iris = datasets.load_iris()  X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )clf = svm.SVC(kernel=’linear’, C=1).    (X_train, y_train)  
选项:
A:train
B:fit
C:learn
D:ml
答案: 【fit

11、 问题:下面的一段程序是标签二值化的示例程序,则最后的print语句的输出应该为:from sklearn.preprocessing import label_binarizey=[0, 1, 2]print (y)y = label_binarize(y, classes=[0, 1, 2])print (y)
选项:
A:[[0 0 1]  [0 1 0]  [1 0 0]]
B:[[1 0 0][1 0 0]  [1 0 0]]
C:[[0 0 1]  [0 0 1]  [0 0 1]]
D:[[1 0 0]  [0 1 0]  [0 0 1]]
答案: 【[[1 0 0]  [0 1 0]  [0 0 1]]

12、 问题:F值的定义为准确率和召回率的调和平均。如果二者(即准确率和召回率)同等重要,则为
选项:
A:F1
B:F2
C:F0.5
D:F3
答案: 【F1

13、 问题:超参数和参数的区别。参数一般是模型需要根据训练数据可以自动学习出的变量。超参数一般就是根据经验确定预设的变量。下面哪些是超参数?
选项:
A:深度学习模型的权重,偏差
B:深度学习的学习速率、人工神经网络的层数
C:深度学习的迭代次数
D:深度学习的每层神经元的个数
答案: 【深度学习的学习速率、人工神经网络的层数;
深度学习的迭代次数;
深度学习的每层神经元的个数

14、 问题:关于ROC (受试者工作特征曲线, receiver operating characteristic curve)中AUC(Area Under Curve)说法正确的是
选项:
A:定义为ROC曲线下的面积
B:AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好
C:取值范围为[0,1]
D:其它答案都不对
答案: 【定义为ROC曲线下的面积;
AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好;
取值范围为[0,1]

15、 问题:关于 Cohen’ s kappa 和Fleiss’ kappa的区别:
选项:
A:Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement)
B:如果评价者多于2人时,可以考虑使用Fleiss’ kappa
C:二者没有本质区别,可以等价
D:其它答案都不对
答案: 【Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement);
如果评价者多于2人时,可以考虑使用Fleiss’ kappa

16、 问题:下面关于使用网格搜索进行超参数的调优的描述正确的是:
选项:
A:假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值
B:为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合
C:假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0,   0.5,  1.0}
D:其它答案都不对
答案: 【假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值;
为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合;
假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0,   0.5,  1.0}

17、 问题:下面关于分类(classification)和回归(regression)的区别和联系的描述正确的是:
选项:
A:分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的
B:分类和回归问题通常都是有监督学习的范畴
C:回归问题需要预测连续变量的数值:比如预测新产品的销量等
D:可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类
答案: 【分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的;
分类和回归问题通常都是有监督学习的范畴;
回归问题需要预测连续变量的数值:比如预测新产品的销量等;
可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类

18、 问题:下列关于scikit-learn的描述正确的是
选项:
A:scikit-learn包括许多知名的机器学习算法的实现,包括SVM等
B:scikit-learn封装了其他的Python库,如自然语言处理的NLTK库
C:scikit-learn内置了大量数据集,如iris数据集等
D:scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等
答案: 【scikit-learn包括许多知名的机器学习算法的实现,包括SVM等;
scikit-learn封装了其他的Python库,如自然语言处理的NLTK库;
scikit-learn内置了大量数据集,如iris数据集等;
scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等

19、 问题:已知如下定义:True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。 则下面定义正确的是:
选项:
A:分类准确率 Accuracy=(TP+TN)/(P+N)
B:精确率 Precision=TP/(TP+FP)
C:召回率 Recall=TP/P
D:召回率 Recall=TN/P

本门课程剩余章节答案为付费内容
本文章不含期末不含主观题!!
本文章不含期末不含主观题!!
支付后可长期查看
有疑问请添加客服QQ 2356025045反馈
如遇卡顿看不了请换个浏览器即可打开
请看清楚了再购买哦,电子资源购买后不支持退款哦

   

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注