Scalding初探之二:动手来做做小实验

输入文件

Scalding既可以处理HDFS上的数据,也可以很方便地在本地运行处理一些test case便于debug,Source有好多种

1 TextLine(filename) 

TextLine(args("input"))或者TextLine("~/data/input.txt")

对每行数据,产生包含'line和'offset两个field的tuple

 

2 Csv和Tsv

本地文件和HDFS文件都可以用,读时可以指定field名 

Tsv(args("input"), ('userid, 'computerguid, 'event, 'json)).read

第一行如果有headers还可以自动处理field名

 

3 WritableSequenceFile

读取HDFS上的Sequence压缩文件,将每一行解析为(Long, String)

WritableSequenceFile(args("input"), ('serialNo, 'data))

 

4 IterableSource

由scala的Iterable变量创建pipe

IterableSource(List(4,8,15,16,23,42), 'foo)

创建名为'foo的field

 

5 NullSource

Scalding有一个隐蔽的优化,如果job中对一个pipe进行变换而最终没有write到任何地方,这段中间代码就不会被执行,如果job中一个write操作就直接抛异常了。 

如果分布式计算程序只是为了产生side effect,而不需要将pipe变换的结果,比如说这种场景,仅仅从HDFS读取一些计算结果,然后将进一步计算的数据发送到数据可视化平台,又或者你只是想打印pipe的前几行Csv(input).limit(10).debug,这种优化就是一个坑了。

因此你需要Csv(input).limit(10).debug.write(NullSource)来确保side effect被执行

 

更多请参考Scalding-SourcesField rules

 

reduce和foldLeft的区别

reduce函数必须是associative的,类似combiner,会先在map side做中间结果合并的工作。
foldLeft函数可以不是associative的,而且output的类型可以与input类型不同,结果合并只在reduce side发生。

 

scald.rb有坑请注意

插播一个序媛踩坑的不开心经历让大家开心一下

这个不知道为啥在我这儿不能使,倒腾了几次提示我可以scald.rb --clean看看

于是乎悲剧就发生了,这个操作删除了maven下载的一系列包,对于本月已经流量超了24个G的妹子来说是沉重的打击,龟速更新完之后其他job也跑不了了,悲愤

error: error while loading <root>, error in opening zip file

error: scala.tools.nsc.MissingRequirementError: object scala not found.

一开始看了Stackoverflow上面的讨论

Scala SBT / Maven2 Error on OSX: “Error Opening Zip File” -> MissingRequirementError

然后冲过去把scalac -classpath 后面跟的jar包全都chmode a+rwx了一把,我了个。。。。。。。。。完全没用!而且~/.sbt/boot/scala-2.9.3/这个目录根本就没有蒙谁呢。。。

然后看这个 Running your Scalding jobs in Eclipse

本地写法:
Eclipse runtime configuration:
Main class: com.twitter.scalding.Tool
Program Args: <Fully Qualified Path to Job Class> <Other CLI Args>
Example: org.hokiesuns.scaldingtest.WordCountJob --local --input ./input/input.txt --output ./output.txt
VM Args: -Xmx3072m
Hadoop写法:
hadoop jar scaldingsample-0.0.1-SNAPSHOT.jar org.hokiesuns.scaldingtest.WordCountJob --hdfs --input <some path> --output <some path>

 又参考这个Using IntelliJ with Twitter’s Scalding

I am able to do a local or local-hdfs run from the sbt-console:

1
2
> run-main com.twitter.scalding.Tool com.wordnik.WordCountJob --local --input doc.txt --output /tmp/notice.tsv
> run-main com.twitter.scalding.Tool com.wordnik.WordCountJob --hdfs --input doc.txt --output /tmp/NOTICE_JOB

Note that the syntax is slightly different from the the Ruby scald.rb script — local hdfs mode is indicated with ‘–hdfs’. You’ll probably often want to run sbt with more memory than this.

想着是不是可以像唐大神一样完全抛弃scald.rb自己写个bash脚本运行scalding job啊。。。

各种方法未果决定重新编译scalding,从19:05开始借流量,到22:28Google看到一个link命令scripts/scald.rb --local XXX.scala前加了sudo,试试看之后简直不敢相信,神坑被fix了。。。

scalac -classpath /Users/wei.li/.sbt/boot/scala-2.9.3/lib/scala-library.jar:/Users/wei.li/codes/scalding/scalding-core/target/scala-2.9.3/scalding-core-assembly-0.9.0rc4.jar:/tmp/maven/hadoop-core-1.1.2.jar:/tmp/maven/commons-codec-1.8.jar:/tmp/maven/commons-configuration-1.9.jar:/tmp/maven/jackson-asl-0.9.5.jar:/tmp/maven/jackson-mapper-asl-1.9.13.jar:/tmp/maven/commons-lang-2.6.jar:/tmp/maven/slf4j-log4j12-1.6.6.jar:/tmp/maven/log4j-1.2.15.jar:/tmp/maven/commons-httpclient-3.1.jar:/tmp/maven/commons-cli-1.2.jar:/tmp/maven/commons-logging-1.1.1.jar:/tmp/maven/zookeeper-3.3.4.jar -d /tmp/script-build tutorial/Tutorial1.scala

这些jar包的路径跟以前截然不同!开心得要转圈圈~

不过最后我还是抛弃了scald.rb,在本地跑直接用sbt+Eclipse,在Hadoop上跑直接用sbt+shell script

 

Tuple里到底发生了什么

下面这个PPT很详细地解释了不同操作对Field的影响(此处应有FQ)

 

Scalding大法好,退MR保平安

Scalding将HDFS的输入抽象成一个分布式集合(和数据库中Tuple和Field的概念是一致的),与MR不同,他可以很直观地进行两个表Join的操作。

 

可以运行的教程

https://github.com/twitter/scalding/tree/master/tutorial

https://github.com/twitter/scalding/tree/master/scalding-core/src/main/scala/com/twitter/scalding/examples

https://github.com/sharethrough/scalding-emr-tutorial

一个更复杂的例子是

Generating Recommendations with MapReduce and Scalding

Movie recommendations and more via MapReduce and Scalding

你会发现Scalding代码真的长得很像Spark

Movie Recommendations and More With Spark

再来对比一下

这个PPT里提到了Scalding可以跑在Spark上,不过除了Summingbird(scalding for hadoop, storm for realtime)里提了下,鲜有这方面实践的资料

SBT让程序跑起来

SbtTutorial

使用sbt构建Scala应用

简单构件工具 

Simple Build Tool

 

REPL交互式Shell支持

今天发现其实有个很简单的方式,直接运行

~/codes/scalding/scripts/scald-repl.sh

就可以成功地导入并找到Scalding包啦

scalding> import com.twitter.scalding._
import com.twitter.scalding._

如果遇到一些找不到scala之类的问题,sudo一下试试看

可以在~/.bash_profile中加入

alias scalding="sudo ~/codes/scalding/scripts/scald-repl.sh"

好用得飞起来

如果你想加入第三方包(比如说json解析包)

可以vi scald.rb

参考MVNrepository的写法

libraryDependencies += "org.json4s" % "json4s-jackson_2.10" % "3.2.7"

在第33行"depends" => [ "org.apache.hadoop/hadoop-core/1.1.2", 后面照着它的格式加入你需要的包依赖

NewImage

 然后就可以在REPL里面导入这个包啦

scripts$ sudo scald-repl.sh

NewImage

可以试着玩玩儿,但还是有坑,IDE里的SpreadSheet其实更方便

  

添加IDE支持

在项目的project/plugins.sbt中加入

addSbtPlugin("com.typesafe.sbteclipse" % "sbteclipse-plugin" % "2.4.0")

或者

addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")

在项目的build.sbt中添加Dependency,按照MVNrepository的写法加入依赖

libraryDependencies ++= Seq(
"com.twitter" % "scalding-core_2.10" % "0.9.0rc12" exclude("com.esotericsoftware.minlog", "minlog"),
"org.apache.hadoop" % "hadoop-core" % "1.2.1" % "provided",
"org.json4s" %% "json4s-jackson" % "3.2.8"
)

sbt update
sbt eclipse

或者

sbt gen-idea

然后重新导入Eclipse就可以啦,我选择Eclipse主要是因为它有集成Scala 2.10支持的版本下载,比配IntelliJ省事儿些,而且可以设置Eclipse在每次保存的时候自动format代码,拯救了我的强迫症,知道在IntelliJ里怎么实现该功能的亲可以教教我哦~

NewImage

Plugin for sbt to create Eclipse project definitions

Using IntelliJ with Twitter’s Scalding

 

 

posted on 2014-03-23 20:35  小唯THU  阅读(2766)  评论(0编辑  收藏  举报

导航