Spark on Intellij IDEA

 

添加scala插件

如果网络有问题,可以手动下载插件安装包(http://plugins.jetbrains.com/plugin/?id=1347),在上面选择“Install plugin from disk”,在弹出的标签里选择你存放插件的路径,点OK即可。

 

下面新建scala工程

 

据说scala2.11问题多,最好用2.10

点击finish之后,啥都没有

到官网http://spark.apache.org/下载spark,解压,从File->Project Structre中导入[spark root path]/lib/spark-assembly-1.5.1-hadoop2.6.0.jar

 

在scr下新建scala object

 

/**
 * Created by Manhua on 2015/11/11.
 */
import org.apache.spark._

import scala.math.random


object s {
  def main(args: Array[String]) {
    val spark = new SparkContext("local", "Spark Pi")
    val slices = 2
    val n = 100000 * slices
    val count = spark.parallelize(1 to n, slices).map { i =>
      val x = random * 2 - 1
      val y = random * 2 - 1
      if (x * x + y * y < 1) 1 else 0
    }.reduce(_ + _)
    println("Pi is roughly " + 4.0 * count / n)
    spark.stop()
  }
}

 

右击test.scala,编译,运行

 

打包jar运行

生成程序包之前要先建立一个artifacts,File -> Project Structure -> Artifacts  -> + -> Jars -> From moudles with dependencies,然后随便选一个class作为主class。

选择jar包入口main class

 

ok之后显示如下

把complie output之外的依赖包remove掉。Name可以按需修改

然后就可以build了

输出目录

上传运行

 

posted @ 2015-11-11 16:44  Man_华  阅读(417)  评论(0编辑  收藏  举报