MOOC 大数据技术原理与应用(东莞市教育局)1003014003 最新慕课完整章节测试答案
第1讲 大数据概述
文章目录
第1讲大数据概述章节单元测验
1、单选题:
第三次信息化浪潮的标志是:
选项:
A: 个人电脑的普及
B: 互联网的普及
C: 云计算、大数据、物联网技术的普及
D: 虚拟现实技术的普及
答案: 【 云计算、大数据、物联网技术的普及】
2、单选题:
就数据的量级而言,1PB数据是多少TB?
选项:
A: 512
B: 1024
C: 1000
D: 2048
答案: 【 1024】
3、单选题:
以下关于云计算、大数据和物联网之间的关系,论述错误的是:
选项:
A: 云计算侧重于数据分析
B: 云计算、大数据和物联网三者紧密相关,相辅相成
C: 物联网可以借助于云计算实现海量数据的存储
D: 物联网可以借助于大数据实现海量数据的分析
答案: 【 云计算侧重于数据分析】
4、单选题:
以下哪个不是大数据时代新兴的技术:
选项:
A: Hadoop
B: Spark
C: HBase
D: MySQL
答案: 【 MySQL】
5、单选题:
每种大数据产品都有特定的应用场景,以下哪个产品是用于批处理的:
选项:
A: MapReduce
B: Pregel
C: Dremel
D: Storm
答案: 【 MapReduce】
6、单选题:
每种大数据产品都有特定的应用场景,以下哪个产品是用于流计算的:
选项:
A: GraphX
B: S4
C: Hive
D: Impala
答案: 【 S4】
7、单选题:
每种大数据产品都有特定的应用场景,以下哪个产品是用于图计算的:
选项:
A: Cassandra
B: Flume
C: Storm
D: Pregel
答案: 【 Pregel】
8、单选题:
每种大数据产品都有特定的应用场景,以下哪个产品是用于查询分析计算的:
选项:
A: MapReduce
B: HDFS
C: Dremel
D: S4
答案: 【 Dremel】
9、多选题:
数据产生方式大致经历了三个阶段,包括:
选项:
A: 运营式系统阶段
B: 用户原创内容阶段
C: 感知式系统阶段
D: 移动互联网数据阶段
答案: 【 运营式系统阶段;
用户原创内容阶段;
感知式系统阶段】
10、多选题:
大数据发展的三个阶段是:
选项:
A: 萌芽期
B: 低谷期
C: 成熟期
D: 大规模应用期
答案: 【 萌芽期;
成熟期;
大规模应用期】
11、多选题:
大数据的4V特性包括:
选项:
A: 数据量大
B: 数据新颖
C: 数据类型繁多
D: 处理速度快
E: 价值密度低
答案: 【 数据量大;
数据类型繁多;
处理速度快;
价值密度低】
12、多选题:
图领奖获得者、著名数据库专家Jim Gray博士认为,人类自古以来在科学研究上先后经历了四种范式,具体包括:
选项:
A: 猜想科学
B: 实验科学
C: 理论科学
D: 计算科学
E: 数据密集型科学
答案: 【 实验科学;
理论科学;
计算科学;
数据密集型科学】
13、多选题:
大数据带来思维方式的三个转变是:
选项:
A: 精确而非全面
B: 全样而非抽样
C: 效率而非精确
D: 相关而非因果
答案: 【 全样而非抽样;
效率而非精确;
相关而非因果】
14、多选题:
大数据的四种主要计算模式包括:
选项:
A: 批处理计算
B: 流计算
C: 框计算
D: 图计算
E: 查询分析计算
答案: 【 批处理计算;
流计算;
图计算;
查询分析计算】
15、多选题:
云计算的典型服务模式包括三种:
选项:
A: PaaS
B: IaaS
C: SaaS
D: MaaS
答案: 【 PaaS;
IaaS;
SaaS】
第2讲 大数据处理架构Hadoop
大数据处理架构Hadoop单元测验
1、单选题:
启动hadoop所有进程的命令是
选项:
A: start-dfs.sh
B: start-hadoop.sh
C: start-all.sh
D: start-hdfs.sh
答案: 【 start-all.sh】
2、单选题:
以下对Hadoop的说法错误的是
选项:
A: Hadoop的核心是HDFS和MapReduce
B: Hadoop是基于Java语言开发的,只支持Java语言编程
C: Hadoop2.0增加了NameNode HA和Wire-compatibility两个重大特性
D: Hadoop MapReduce是针对谷歌MapReduce的开源实现,通常用于大规模数据集的并行计算
答案: 【 Hadoop是基于Java语言开发的,只支持Java语言编程】
3、单选题:
以下哪个不是hadoop的特性
选项:
A: 高容错性
B: 高可靠性
C: 成本高
D: 支持多种编程语言
答案: 【 成本高】
4、单选题:
以下名词解释不正确的是
选项:
A: HDFS:分布式文件系统,是Hadoop项目的两大核心之一,是谷歌GFS的开源实现
B: HBase:提供高可靠性、高性能、分布式的行式数据库,是谷歌BigTable的开源实现
C: Hive:一个基于Hadoop的数据仓库工具,用于对Hadoop文件中的数据集进行数据整理、特殊查询和分析存储
D: Zookeeper:针对谷歌Chubby的一个开源实现,是高效可靠的协同工作系统
答案: 【 HBase:提供高可靠性、高性能、分布式的行式数据库,是谷歌BigTable的开源实现】
5、多选题:
以下哪些组件是Hadoop的生态系统的组件
选项:
A: MapReduce
B: HDFS
C: Oracle
D: HBase
答案: 【 MapReduce;
HDFS;
HBase】
6、多选题:
以下哪个命令可以用来操作HDFS文件
选项:
A: hadoop fs
B: hdfs dfs
C: hadoop dfs
D: hdfs fs
答案: 【 hadoop fs;
hdfs dfs;
hadoop dfs】
第3讲 分布式文件系统HDFS
分布式文件系统HDFS单元测验
1、单选题:
HDFS的命名空间不包含
选项:
A: 目录
B: 文件
C: 块
D: 字节
答案: 【 字节】
2、单选题:
对HDFS通信协议的理解错误的是
选项:
A: HDFS通信协议都是构建在IoT协议基础之上的
B: 名称节点和数据节点之间则使用数据节点协议进行交互
C: 客户端与数据节点的交互是通过RPC(Remote Procedure Call)来实现的
D: 客户端通过一个可配置的端口向名称节点主动发起TCP连接,并使用客户端协议与名称节点进行交互
答案: 【 HDFS通信协议都是构建在IoT协议基础之上的】
3、单选题:
采用多副本冗余存储的优势不包含
选项:
A: 加快数据传输速度
B: 节约存储空间
C: 容易检查数据错误
D: 保证数据可靠性
答案: 【 节约存储空间】
4、单选题:
假设已经配置好环境变量,启动Hadoop和关闭Hadoop的命令分别是
选项:
A: start-hdfs.sh,stop-hdfs.sh
B: start-dfs.sh,stop-dfs.sh
C: start-dfs.sh,stop-hdfs.sh
D: start-hdfs.sh,stop-dfs.sh
答案: 【 start-dfs.sh,stop-dfs.sh】
5、单选题:
分布式文件系统HDFS采用了主从结构模型,由计算机集群中的多个节点构成的,这些节点分为两类,一类存储元数据叫 ,另一类存储具体数据叫
选项:
A: 名称节点,数据节点
B: 数据节点,名称节点
C: 名称节点,主节点
D: 从节点,主节点
答案: 【 名称节点,数据节点】
6、单选题:
下面关于分布式文件系统HDFS的描述正确的是:
选项:
A: 分布式文件系统HDFS是一种关系型数据库
B: 分布式文件系统HDFS是Google Bigtable的一种开源实现
C: 分布式文件系统HDFS是谷歌分布式文件系统GFS(Google File System)的一种开源实现
D: 分布式文件系统HDFS比较适合存储大量零碎的小文件
答案: 【 分布式文件系统HDFS是谷歌分布式文件系统GFS(Google File System)的一种开源实现】
7、多选题:
以下对名称节点理解正确的是
选项:
A: 名称节点通常用来保存元数据
B: 名称节点的数据保存在内存中
C: 名称节点作为中心服务器,负责管理文件系统的命名空间及客户端对文件的访问
D: 名称节点用来负责具体用户数据的存储
答案: 【 名称节点通常用来保存元数据;
名称节点的数据保存在内存中;
名称节点作为中心服务器,负责管理文件系统的命名空间及客户端对文件的访问】
8、多选题:
以下对数据节点理解正确的是
选项:
A: 数据节点用来存储具体的文件内容
B: 数据节点的数据保存在磁盘中
C: 数据节点在名称节点的统一调度下进行数据块的创建、删除和复制等操作
D: 数据节点通常只有一个
答案: 【 数据节点用来存储具体的文件内容;
数据节点的数据保存在磁盘中;
数据节点在名称节点的统一调度下进行数据块的创建、删除和复制等操作】
9、多选题:
HDFS只设置唯一一个名称节点带来的局限性包括
选项:
A: 性能的瓶颈
B: 命名空间的限制
C: 隔离问题
D: 集群的可用性
答案: 【 性能的瓶颈;
命名空间的限制;
隔离问题;
集群的可用性】
10、多选题:
以下HDFS相关的shell命令不正确的是
选项:
A: hadoop fs -ls <path>:显示<path>指定的文件的详细信息
B: hadoop dfs mkdir <path>:创建<path>指定的文件夹
C: hadoop fs -copyFromLocal <path1> <path2>:将路径<path2>指定的文件或文件夹复制到路径<path1>指定的文件夹中
D: hdfs dfs -rm <path>:删除路径<