摘要:
通过hdfs或者spark用户登录操作系统,执行spark-shell spark-shell 也可以带参数,这样就覆盖了默认得参数 spark-shell --master yarn --num-executors 2 --executor-memory 2G --driver-memory 15 阅读全文
posted @ 2018-11-14 15:39
David_Zhu
阅读(911)
评论(0)
推荐(0)
摘要:
1.使用hdfs用户或者hadoop用户登录 2.在linux shell下执行命令 hadoop fs -put '本地文件名' hadoop fs - put '/home/hdfs/sample/sample.txt' hadoop fs -ls / 列出具体的文件名。 hadoop fs - 阅读全文
posted @ 2018-11-14 15:36
David_Zhu
阅读(468)
评论(0)
推荐(0)
浙公网安备 33010602011771号