Apache Spark 简明教程
Apache Spark - Installation
Spark 是 Hadoop 的子项目。因此,最好将 Spark 安装到基于 Linux 的系统中。以下步骤显示如何安装 Apache Spark。
Step 1: Verifying Java Installation
Java 安装是安装 Spark 的必备事项之一。尝试以下命令以验证 JAVA 版本。
$java -version
如果系统中已安装 Java,您将看到以下响应:
java version "1.7.0_71"
Java(TM) SE Runtime Environment (build 1.7.0_71-b13)
Java HotSpot(TM) Client VM (build 25.0-b02, mixed mode)
如果您系统中尚未安装 Java,请在继续下一步操作之前安装 Java。
Step 2: Verifying Scala installation
您应使用 Scala 语言来实现 Spark。因此,让我们使用以下命令验证 Scala 安装。
$scala -version
如果系统中已安装 Scala,您将看到以下响应:
Scala code runner version 2.11.6 -- Copyright 2002-2013, LAMP/EPFL
如果您系统中尚未安装 Scala,则继续执行下一步操作以安装 Scala。
Step 3: Downloading Scala
下载 Scala 的最新版本,请访问以下链接 Download Scala 。对于本教程,我们使用 scala-2.11.6 版本。下载后,您将在下载文件夹中找到 Scala tar 文件。
Step 4: Installing Scala
按照以下给定的步骤安装 Scala。
Step 5: Downloading Apache Spark
访问以下链接 Download Spark 下载 Spark 最新版本。本教程中,我们使用 spark-1.3.1-bin-hadoop2.6 版本。下载后,你将在下载文件夹中找到 Spark tar 文件。
Step 6: Installing Spark
按照以下步骤执行 Spark 安装。
Step 7: Verifying the Spark Installation
输入以下命令打开 Spark shell。
$spark-shell
如果 Spark 安装成功,你将看到以下输出。
Spark assembly has been built with Hive, including Datanucleus jars on classpath
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
15/06/04 15:25:22 INFO SecurityManager: Changing view acls to: hadoop
15/06/04 15:25:22 INFO SecurityManager: Changing modify acls to: hadoop
15/06/04 15:25:22 INFO SecurityManager: SecurityManager: authentication disabled;
ui acls disabled; users with view permissions: Set(hadoop); users with modify permissions: Set(hadoop)
15/06/04 15:25:22 INFO HttpServer: Starting HTTP Server
15/06/04 15:25:23 INFO Utils: Successfully started service 'HTTP class server' on port 43292.
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 1.4.0
/_/
Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.7.0_71)
Type in expressions to have them evaluated.
Spark context available as sc
scala>