摘要:
执行spark-sql时,查询数据量超过1.7亿行,数据量大小38G,出现系统盘占用突然变高的情况检查为 /tmp 目录下,spark生成的临时目录占用了大量的磁盘空间,生成的spark临时文件超过15G了。解决... 阅读全文
posted @ 2017-11-03 18:08
柚子=_=
阅读(2502)
评论(0)
推荐(0)
摘要:
阅读全文
posted @ 2017-11-03 18:01
柚子=_=
阅读(103)
评论(0)
推荐(0)

浙公网安备 33010602011771号