2023知到答案 Spark大数据技术与应用 完整智慧树网课章节测试答案

Title

第一章 单元测试

1、单选题:
与MapReduce相比,Spark更适合处理以下哪种类型的任务( )
选项:
A:较少迭代次数的短任务
B:较多迭代次数的长任务
C:较少迭代次数的长任务
D:较多迭代次数的短任务
答案: 【较多迭代次数的短任务

2、单选题:
Standalone模式下配置Spark集群时,master节点的工作端口号需要在conf文件夹下的哪个文件指明( )
选项:
A:regionserver
B:slaves
C:spark-defaults.conf
D:spark-env.sh
答案: 【spark-env.sh

3、单选题:
以下关于SPARK中的spark context,描述错误的是:( )
选项:
A:可以控制task scheduler组件
B:控制整个application的生命周期
C:可以控制dagsheduler组件
D:SparkContext为Spark的主要入口点
答案: 【控制整个application的生命周期

4、单选题:
以下对Spark中Work的主要工作描述错误的是( )
选项:
A:管理当前节点内存
B:不会运行业务逻辑代码
C:接收master分配过来的资源指令
D:会运行业务逻辑代码
答案: 【会运行业务逻辑代码

5、单选题:
配置Standalone模式下的Spark集群,Worker节点需要在conf文件夹下的哪个文件中指明( )
选项:
A:regionserver
B:slaves
C:spark-defaults.conf
D:spark-env.sh
答案: 【slaves

6、单选题:
Spark支持的分布式部署方式中哪个是错误的( )
选项:
A:spark on mesos
B:standalone
C:Spark on local
D:spark on YARN
答案: 【Spark on local

7、判断题:
Spark单机伪分布式模式,它的特点是在一台节点上既有Master服务,又有Worker服务( )
选项:
A:对
B:错
答案: 【

8、单选题:
在部署Spark独立模式时,配置spark内部通信的端口为( )
选项:
A:16010
B:7070
C:9870
D:7077
答案: 【7077

9、单选题:
在部署Spark独立模式时,配置spark的web端口为( )
选项:
A:4040
B:7077
C:8080
D:9870
答案: 【7077

10、判断题:
Spark的bin目录是spark运行脚本目录,该目录中包含了加载spark的配置信息,提交作业等执行命令的脚本( )
选项:
A:对
B:错
答案: 【

第二章 单元测试

1、单选题:
valrdd=sc.parallelize(1 to 10).filter(_%2== 0)rdd.collect上述代码的执行结果为( )
选项:
A:Array(1, 3, 5,7,9)
B:Array(2, 4, 6, 8, 10)
C:Array(1,2,3,4,5,6,7,8,9,10)
D:Array(1,10)
答案: 【Array(2, 4, 6, 8, 10)

2、单选题:
下面哪个操作是窄依赖( )
选项:
A:join
B:filter
C:group
D:sort
答案: 【filter

3、单选题:
下面哪个操作肯定是宽依赖( )
选项:
A:sample
B:flatMap
C:map
D:reduceByKey
答案: 【reduceByKey

4、单选题:
以下操作中,哪个不是Spark RDD编程中的操作。( )
选项:
A:getLastOne()
B:reduceByKey(func)
C:reduce()
D:filter()
答案: 【getLastOne()

5、单选题:
val words = Array ("one", "two", "two", "three", "three","three")val wordPairsRDD = sc.parallelize(words).map(word => (word,1) )wordCountsWithReduce = wordPairsRDD.reduceByKey(_+_)上述语句的执行结果wordCountsWithReduce 中包含的元素是( )。
选项:
A:(“one”,3), (“two”,2), (“three”, 1)
B:(“one”, 1),(“two”,2), (“three”, 1)
C:(“one”,1), (“two”,2),(“three”,3)
D:(“one”, 1), (“two”,2), (“three”,2)
答案: 【(“one”,1), (“two”,2),(“three”,3)

6、单选题:
有一个键值对RDD,名称为pairRDD,包含4个元素,分别是("Hadoop",1)、("Spark",1)、("Hive",1)和("Spark",1),则pairRDD.keys操作得到的 RDD中所包含的元素是()。
选项:
A:("Hadoop",1)、("Spark",1)、("Hive",1)和("Spark",1)
B:”Hadoop”,”Spark”,”Hive"
C:”Hadoop”,”Spark”,”Hive”,”Spark”
D:(”Hadoop”,1),(”Spark”,1),(”Hive”,1)
答案: 【(”Hadoop”,1),(”Spark”,1),(”Hive”,1)

7、单选题:
有一个RDD,名称为pairRDD,包含4个元素,分别是("Hadoop",1)、("Spark",1)、("Hive",1)和("Spark",1),则pairRDD.values操作得到的RDD中所包含的元素是( ) 。
选项:
A:("Hadoop",1)、("Spark",1)、("Hive",1)和("Spark",1)
B:”Hadoop”,1,”Spark”,1
C:4
D:1,1,1,l
答案: 【1,1,1,l

8、单选题:
有一个键值对 RDD,名称为pairRDD,包含4个元素,分别是("Hadoop",1)、("Spark",1)、("Hive",1)和("Spark",1),则pairRDD. mapValues(x => x+1)操作得到的RDD中所包含的元素是( ) 。
选项:
A:("Hadoop",2)、("Spark",2)、("Hive",2)和("Spark",2)
B:2,2,2,2
C:1,1,1,1
D:("Hadoop",1)、("Spark",1)、("Hive",1)和("Spark",1)
答案: 【("Hadoop",2)、("Spark",2)、("Hive",2)和("Spark",2)

9、多选题:
RDD操作包括哪两种类型。( )
选项:
A:行动(Action)
B:转换(Transformation)
C:连接(Join)
D:分组(GroupBy)
答案: 【行动(Action);
转换(Transformation)

10、多选题:
以下操作中,哪些是行动((Action)操作。( )
选项:
A:groupByKey ()
B:reduce()
C:collect()
D:map()
答案: 【reduce();
collect()

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注