3.如何安装Apache Spark

如何安装Apache Spark


1 Why Apache Spark
2 关于Apache Spark
3 如何安装Apache Spark
4 Apache Spark的工作原理
5 spark弹性分布式数据集
6 RDD持久性
7 spark共享变量
8 Spark SQL
9 Spark Streaming

原文链接:http://blogxinxiucan.sh1.newtouch.com/2017/07/23/%E5%A6%82%E4%BD%95%E5%AE%89%E8%A3%85Apache-Spark/

下表列出了一些重要的链接和先决条件:

当前版本 1.0.1 @ http://d3kbcqa49mib13.cloudfront.net/spark-1.0.1.tgz
下载页面 https://spark.apache.org/downloads.html
JDK版本(必填) 1.6以上
Scala版本(必填) 2.10以上
Python(可选) [2.6,3.0)
简单构建工具(必需) http://www.scala-sbt.org
开发版本 git clone git://github.com/apache/spark.git
Building说明 https://spark.apache.org/docs/latest/building-with-maven.html
Maven 3.0以上

Apache Spark可以配置为独立运行,也可以在Hadoop V1 SIMR或Hadoop 2 YARN / Mesos上运行。Apache Spark需要Java,Scala或Python中等技能。这里我们将看到如何在独立配置中安装和运行Apache Spark。

  1. 安装JDK 1.6+,Scala 2.10+,Python [2.6,3)和sbt
  2. 下载Apache Spark 1.0.1发行版
  3. 在指定的目录中解压缩并解压缩spark-1.0.1.tgz
akuntamukkala@localhost~/Downloads$ pwd 
   /Users/akuntamukkala/Downloads akuntamukkala@localhost~/Downloads$ tar -zxvf spark- 1.0.1.tgz -C /Users/akuntamukkala/spark

4、 从#4转到目录并运行sbt来构建Apache Spark

akuntamukkala@localhost~/spark/spark-1.0.1$ pwd /Users/akuntamukkala/spark/spark-1.0.1 akuntamukkala@localhost~/spark/spark-1.0.1$ sbt/sbt assembly

5、 启动Apache Spark独立REPL对于Scala,请使用:

/ Users / akuntamukkala / spark / spark - 1.0。1 / bin / spark - shell

对于Python,请使用:

/Users/akuntamukkala/spark/spark-1.0.1/bin/ pyspark

6.、转到SparkUI @ http:// localhost:4040


公众号:it全能程序猿


posted @ 2017-07-27 19:23  全能程序猿  阅读(694)  评论(1编辑  收藏  举报