摘要:
spark的rdd进行groupby以后有时需要对value处理 可以这样处理: 之后可以循环处理 grouped里的对象,类似: 阅读全文
posted @ 2017-09-05 17:43
白神来了
阅读(1879)
评论(0)
推荐(0)
摘要:
用python的mysqldb包 执行insert语句cur.execute(sql)之后还需要 con.commit() 否则id增长了却没有数据 阅读全文
posted @ 2017-09-05 17:36
白神来了
阅读(175)
评论(0)
推荐(0)

浙公网安备 33010602011771号