摘要: 1 最直接的方式 scala> val jdbcDF = spark.read.format("jdbc") .option("url", "jdbc:mysql://hadoop1:3306/rdd") mysql 接口和库名 .option("dbtable", "rddtable") 两张表名 阅读全文
posted @ 2019-10-09 18:17 markecc121 阅读(3374) 评论(0) 推荐(0)
摘要: 1) spark可以读取很多种数据格式,spark.read.按tab键表示显示: scala>spark.read. csv format jdbc json load option options orc parquet schema table text textFile 2) spark.r 阅读全文
posted @ 2019-10-09 15:39 markecc121 阅读(11509) 评论(0) 推荐(0)