Spark Sql 简明教程
Spark – RDD
Resilient Distributed Datasets
弹性分布式数据集 (RDD) 是 Spark 的一个基本数据结构。它是对象的不可变分布式集合。RDD 中的每个数据集都被划分为逻辑分区,这些分区可以在群集的不同节点上计算。RDD 可以包含任何类型的 Python、Java 或 Scala 对象,包括用户定义的类。
形式上,RDD 是只读的分区记录集合。RDD 可以通过对稳定存储器中的数据或其他 RDD 上的确定性操作来创建。RDD 是一个容错元素集合,可以并行对其进行操作。
有两种方法可以创建 RDD − parallelizing 驱动程序程序中的现有集合或 referencing a dataset 位于外部存储系统中,例如共享文件系统、HDFS、HBase 或提供 Hadoop 输入格式的任何数据源。
Spark 利用 RDD 的概念实现了更快速、高效的 MapReduce 操作。让我们首先讨论 MapReduce 操作如何进行以及为什么它们效率不高。
Data Sharing is Slow in MapReduce
MapReduce 被广泛采用,用于在群集上通过并行分布式算法处理和生成大型数据集。它允许用户编写并行计算,使用一组高级运算符,而无需担心工作分布和容错能力。
不幸的是,在大多数当前框架中,在计算之间重用数据(例如:在两个 MapReduce 作业之间)的唯一方法是将其写入外部稳定存储系统(例如:HDFS)。虽然此框架提供了大量抽象技术来访问集群的计算资源,但用户仍然希望获得更多。
Iterative 和 Interactive 应用程序都需要更快的并行作业间数据共享。数据共享在 MapReduce 中很慢,原因在于 replication 、 serialization 和 disk IO 。关于存储系统,大多数 Hadoop 应用程序都会将 90% 以上的时间用于执行 HDFS 读写操作。
Iterative Operations on MapReduce
在多阶段应用程序中跨多个计算重用中间结果。下图解释了在 MapReduce 上执行迭代操作时当前框架如何工作。由于复制数据、磁盘 I/O 和序列化,这会产生大量的开销,从而导致系统变慢。
Interactive Operations on MapReduce
用户对相同的数据子集运行即席查询。每个查询都将在稳定存储上执行磁盘 I/O,这会占据应用程序执行时间的大部分。
下图说明了当前框架在 MapReduce 上执行交互式查询时如何工作。
Data Sharing using Spark RDD
数据共享在 MapReduce 中很慢,原因在于 replication 、 serialization 和 disk IO 。大多数 Hadoop 应用程序都会将 90% 以上的时间用于执行 HDFS 读写操作。
认识到这个问题后,研究人员开发了一个名为 Apache Spark 的专门框架。Spark 的关键思想是 *R*esilient *D*istributed *D*atasets (RDD);它支持内存内处理计算。这意味着它将内存的状态存储为作业间的对象,且此对象可在这些作业中共享。内存内的数据共享比网络和磁盘快 10 到 100 倍。
现在,我们尝试找出 Spark RDD 中迭代和交互式操作如何执行。