04 2018 档案

爬虫大作业
摘要:import requests, re, jieba,pandas from bs4 import BeautifulSoup from datetime import datetime from wordcloud import WordCloud import matplotlib.pyplot as plt # 获取新闻细节 def getNewsDetail(newsUrl): ... 阅读全文

posted @ 2018-04-30 16:29 176张宇健 阅读(174) 评论(0) 推荐(0)

熟悉常用的HDFS操作
摘要:在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 cd /usr/local/hadoop touch yj.txt //此处编辑yj.txt cat yj.txt 使用命令把本地文件系统中的 阅读全文

posted @ 2018-04-25 18:29 176张宇健 阅读(176) 评论(0) 推荐(0)

数据结构化与保存
摘要:import requests from bs4 import BeautifulSoup from datetime import datetime import re import pandas news_list = [] def crawlOnePageSchoolNews(page_url): res0 = requests.get(page_url) res0.... 阅读全文

posted @ 2018-04-12 20:10 176张宇健 阅读(236) 评论(0) 推荐(0)

获取全部校园新闻
摘要:1.取出一个新闻列表页的全部新闻 包装成函数。 2.获取总的新闻篇数,算出新闻总页数。 3.获取全部新闻列表页的全部新闻详情。 4.找一个自己感兴趣的主题,进行数据爬取,并进行分词分析。不能与其它同学雷同。 阅读全文

posted @ 2018-04-11 20:12 176张宇健 阅读(158) 评论(0) 推荐(0)

爬取校园新闻首页的新闻
摘要:import requests from bs4 import BeautifulSoup from datetime import datetime import re res = requests.get('http://news.gzcc.cn/html/xiaoyuanxinwen/') res.encoding = 'utf-8' soup = BeautifulSoup(res.te... 阅读全文

posted @ 2018-04-09 20:28 176张宇健 阅读(92) 评论(0) 推荐(0)