大数据技术原理与应用林子雨课后习题答案

发布时间 : 星期三 文章大数据技术原理与应用林子雨课后习题答案更新完毕开始阅读

第一章

1.试述信息技术发展史上的3次信息化浪潮及具体内容。

信息化浪潮 第一次浪潮 发生时间 1980年前后 标志 个人计算机 解决问题 信息处理 代表公司 Intel、AMD、IBM、苹果、微软、联想、戴尔、惠普等 第二次浪潮 1995年前后 互联网 信息传输 雅虎、谷歌、阿里巴巴、百度、腾讯等 第三次浪潮 2010年前后 物理网、云计算和大数据 信息爆炸 将涌现出一批新的市场标杆企业 2. 试述数据产生方式经历的几个阶段

答: 运营式系统阶段,用户原创内容阶段,感知式系统阶段。 3. 试述大数据的4个基本特征

答:数据量大、数据类型繁多、处理速度快和价值密度低。 4. 试述大数据时代的“数据爆炸”的特性

答:大数据时代的“数据爆炸”的特性是,人类社会产生的数据一致都以每年50%的速度增长,也就是说,每两年增加一倍。 5. 数据研究经历了哪4个阶段?

答:人类自古以来在科学研究上先后历经了实验、理论、计算、和数据四种范式。 6. 试述大数据对思维方式的重要影响

答:大数据时代对思维方式的重要影响是三种思维的转变:全样而非抽样,效率而非精确,相关而非因果。

7. 大数据决策与传统的基于数据仓库的决策有什么区别

答:数据仓库具备批量和周期性的数据加载以及数据变化的实时探测、传播和加载能力,能结合历史数据和实时数据实现查询分析和自动规则触发,从而提供对战略决策和战术决策。

大数据决策可以面向类型繁多的、非结构化的海量数据进行决策分析。 8. 举例说明大数据的基本应用 答: 领域 金融行业 大数据的应用 大数据在高频交易、社区情绪分析和信贷风险分析三大金融创新领域发挥重要作用。 汽车行业 利用大数据和物联网技术的五人驾驶汽车,在不远的未来将走进我们的日常生活 互联网行业 借助于大数据技术,可以分析客户行为,进行商品推荐和有针对性广告投放 个人生活 大数据还可以应用于个人生活,利用与每个人相关联的“个人大数据”,分析个人生活行为习惯,为其提供更加周全的个性化服务。 9. 举例说明大数据的关键技术

答:批处理计算,流计算,图计算,查询分析计算 10. 大数据产业包含哪些关键技术。

答:IT基础设施层、数据源层、数据管理层、数据分析层、数据平台层、数据应用层。 11. 定义并解释以下术语:云计算、物联网

答: 云计算:云计算就是实现了通过网络提供可伸缩的、廉价的分布式计算机能力,用户只需要在具备网络接入条件的地方,就可以随时随地获得所需的各种IT资源。

物联网是物物相连的互联网,是互联网的延伸,它利用局部网络或互联网等通信技术把传感器、控制器、机器、人类和物等通过新的方式连在一起,形成人与物、物与物相连,实现信息化和远程管理控制。

12. 详细阐述大数据、云计算和物联网三者之间的区别与联系。

大数据、云计算和物联网的区别 大数据、云计算和物联网的联系 大数据侧重于海量数据的存储、处理与从整体来看,大数据、云计算和物联网分析,海量数据中发现价值,服务于生这三者是相辅相成的。大数据根植于云产和生活;云计算本质上皆在整合和优计算,大数据分析的很多技术都来自于化各种IT资源并通过网络已服务的方云计算,云计算的分布式存储和管理系法,廉价地提供给用户;物联网的发展统提供了海量数据的存储和管理能力,目标是实现呜呜向量,应用创新是物联没有这些云计算技术作为支撑,大数据网的核心 分析就无从谈起。物联网的传感器源源不断的产生大量数据,构成了大数据的重要数据来源,物联网需要借助于云计算和大数据技术,实现物联网大数据的存储、分析和处理。 第二章

1. 试述hadoop和谷歌的mapreduce、gfs等技术之间的关系

答:Hadoop的核心是分布式文件系统HDFS和MapReduce,HDFS是谷歌文件系统GFS的开源实现,MapReduces是针对谷歌MapReduce的开源实现。 2. 试述Hadoop具有哪些特性。

答:高可靠性,高效性,高可扩展性,高容错性,成本低,运行在Linux平台,支持多种编程语言

3. 试述Hadoop在各个领域的应用情况。

答:2007年,雅虎在Sunnyvale总部建立了M45——一个包含了4000个处理器和1.5PB容量的Hadooop集群系统;

Facebook主要将Hadoop平台用于日志处理,推荐系统和数据仓库等方面;

百度主要使用Hadoop于日志的存储和统计、网页数据的分析和挖掘、商业分析、在线数据反馈、网页聚类等。

4. 试述Hadoop的项目结构以及每个部分的具体功能。 答:

Pig Chukwa Hive HBase Zookeeper MapReduce Common HDFS Avro Commeon是为Hadoop其他子项目提供支持的常用工具,主要包括文件系统、RPC和串行化库

Avro是为Hadoop的子项目,用于数据序列化的系统,提供了丰富的数据结构类型、快速可压缩的二进制数据格式、存储持续性数据的文件集、远程调用的功能和简单的动态语言集成功能。

HDFS是Hadoop项目的两个核心之一,它是针对谷歌文件系统的开源实现。

HBase是一个提高可靠性、高性能、可伸缩、实时读写、分布式的列式数据库,一般采用HDFS作为其底层数据存储。

MapReduce是针对谷歌MapReduce的开源实现,用于大规模数据集的并行运算。 Zoookepper是针对谷歌Chubby的一个开源实现,是高效和可靠的协同工作系统,提供分布式锁之类的基本服务,用于构建分布式应用,减轻分布式应用程序所承担的协调任务。 Hive是一个基于Hadoop的数据仓库工具,可以用于对Hadoop文件中的数据集进行数据整理、特殊查询和分布存储。

Pig是一种数据流语言和运行环境,适合于使用Hadoop和MapReducce平台上查询大型半结构化数据集。

Sqoop可以改进数据的互操作性,主要用来在H大哦哦哦配合关系数据库之间交换数据。 Chukwa是一个开源的、用于监控大型分布式系统的数据收集系统,可以将各种类型的数据收集成适合Hadoop处理的文件,并保存在HDFS中供Hadoop进行各种 MapReduce操作。

第三章

1.试述分布式文件系统设计的需求。 设计需求 透明性 含义 HDFS的实现情况 具备访问透明性、位置透只能提供一定程度的访明性、性能、和伸缩透明问透明性,完全支持位置性 透明性、性能和伸缩透明性 并发控制 客户端对于文件的读写机制非常简单,任何时候不应该影响其他客户端都只允许有一个程序写对同一个文件的读写 入某个文件 文件复制 一个文件可以拥有不同HDFS采用了多副本机制

联系合同范文客服:xxxxx#qq.com(#替换为@)