09 2017 档案

摘要:spark的rdd进行groupby以后有时需要对value处理 可以这样处理: 之后可以循环处理 grouped里的对象,类似: 阅读全文
posted @ 2017-09-05 17:43 白神来了 阅读(1873) 评论(0) 推荐(0)
摘要:用python的mysqldb包 执行insert语句cur.execute(sql)之后还需要 con.commit() 否则id增长了却没有数据 阅读全文
posted @ 2017-09-05 17:36 白神来了 阅读(173) 评论(0) 推荐(0)