摘要: 上周学习了hadoop和hive相关知识,最主要的就是通过hsql实现数据的清洗,从数仓中获得有用的数据,然后本周学习了spark以及用Python类库pyspark。 首先是需要在Windows本地和Linux上班均安装anaconda环境,在anaconda安装完成之后就是将spark的安装包上 阅读全文
posted @ 2023-08-26 20:10 cojames 阅读(33) 评论(0) 推荐(0)