Hadoop综合大作业

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

启动Hive

 2.在Hdfs上创建文件夹并查看

2.在Hdfs上创建文件夹并查看

3.把下载的英文小说novers.txt文件上传至hdfs 

4.启动Hive

5.创建原始文档表,把文件内容导入到表fiction1中

6.进行词频统计,结果放在表fiction_word_count里

7.查看统计结果

 

 

补交作业一:hive基本操作与应用

通过hadoop上的hive完成WordCount

启动hadoop

start-all.sh

 

Hdfs上创建文件夹

hdfs dfs -mkdir wcinput
hdfs dfs -ls /user/hadoop

 

上传文件至hdfs

hdfs dfs -put ./dj.txt wcinput
hdfs dfs -ls /user/hadoop/wcinput

 

启动Hive

hive

 

创建原始文档表

create table docs(line string);

 

导入文件内容到表docs并查看

load data inpath '/user/hadoop/wcinput/dj.txt' overwrite into table docs;
select * from docs;

 

用HQL进行词频统计,结果放在表word_count里

create table word_count as select word,count(1) as count from (se
lect explode(split(line,' ')) as word from docs) word group by word order by word;

 

查看统计结果

 show tables;
select * from word_count;

 

二:熟悉常用的HBase操作,编写MapReduce作业

1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据:

学生表(Student)(不包括最后一列)

学号(S_No)

姓名(S_Name)

性别(S_Sex)

年龄(S_Age)

课程(course)

2015001

Zhangsan

male

23

 

2015003

Mary

female

22

 

2015003

Lisi

male

24

数学(Math)85

 

复制代码
create 'Student', ' S_No  ','S_Name', 'S_Sex','S_Age'

put 'Student','s001','S_No','2015001'
put 'Student','s001','S_Name','Zhangsan'
put 'Student','s001','S_Sex','male'
put 'Student','s001','S_Age','23'

put 'Student','s002','S_No','2015003'
put 'Student','s002','S_Name','Mary'
put 'Student','s002','S_Sex','female'
put 'Student','s002','S_Age','22'

put 'Student','s003','S_No','2015003'
put 'Student','s003','S_Name','Lisi'
put 'Student','s003','S_Sex','male'
put 'Student','s003','S_Age','24'
复制代码

 

2. 用Hadoop提供的HBase Shell命令完成相同任务:

  • 列出HBase所有的表的相关信息;list
  • 在终端打印出学生表的所有记录数据;
  • 向学生表添加课程列族;
  • 向课程列族添加数学列并登记成绩为85;
  • 删除课程列;
  • 统计表的行数;count 's1'
  • 清空指定的表的所有记录数据;truncate 's1' 
scan 'Student'
alter 'Student','NAME'=>'course'
put 'Student','3','course:Math','85'
dorp 'Student','course'
count 's1'
truncate 's1'

三:爬虫大作业

1.选一个自己感兴趣的主题。

2.用python 编写爬虫程序,从网络上爬取相关主题的数据。

3.对爬了的数据进行文本分析,生成词云。

4.对文本分析结果进行解释说明。

5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。

6.最后提交爬取的全部数据、爬虫及数据分析源代码。

复制代码
from bs4 import BeautifulSoup
import logging
import sys
reload(sys)
sys.setdefaultencoding( "utf-8" )


class Item(object):
    title = None #帖子标题
    firstAuthor = None #帖子原作者
    firstTime = None #帖子创建时间
    reNum = None #帖子回复浏览数量
    LastTime = None #帖子最后回复时间
    LastAuthor = None #帖子最后回复作者
    link = None #帖子链接

# 全局方法获取网页内容
def getResponseContent(url):
    try:
         response = urllib2.urlopen(url.encode('utf8'),timeout=20)
    except:
        logging.error(u'Python返回URL:{}数据失败'.format(url))
    else:
        logging.info(u'Python返回URL:{}数据成功'.format(url))
        return response.read()

class getHupuInfo(object):
    def __init__(self,url):
        self.url = url
        self.pageSum = 3 
        self.urls = self.getUrls(self.pageSum)
        self.items = self.spider(self.urls)
        self.pipelines(self.items)

    def getUrls(self,pageSum):
        urls = []
        urls.append(self.url)
        for pn in range(1,pageSum):
            tempurl = self.url + '-'+ str(pn+1)
            urls.append(tempurl)
        logging.info(u'获取URLS成功!\n')
        return urls

    def spider(self,urls):
        items = []
        for url in urls:
            htmlContent = getResponseContent(url)
            soup = BeautifulSoup(htmlContent,'lxml')
            tagtable = soup.find('table',attrs={'id':'pl'})
            tagstr = tagtable.find_all('tr')

            flag = 0 
            for tag in tagstr:
                if flag == 0:
                    flag +=1
                    continue
                else:
                    flag += 1
                    item = Item()
                    item.link = '/'+ tag.get('mid') + '.html'  
                    item.title = tag.find('td', attrs={'class': 'p_title'}).find('a',href = item.link).get_text()
                    item.firstAuthor = tag.find('td', attrs={'class': 'p_author'}).a.get_text()
                    item.firstTime = tag.find('td', attrs={'class': 'p_author'}).get_text()
                    item.reNum = tag.find('td', attrs={'class': 'p_re'}).get_text()
                    item.LastAuthor = tag.find('td', attrs={'class': 'p_retime'}).a.get_text()
                    item.LastTime = tag.find('td', attrs={'class': 'p_retime'}).get_text()
                    items.append(item)
        logging.info(u'获取帖子成功')
        return items

    def pipelines(self,items):
        fileName = u'Hupu_bxj.txt'
        with open(fileName,'w') as fp:
            for item in items:
                #fp.write('{}\t{}\t{}\t{}\t{}\t{}\n{}\n\n'.format(item.title,item.firstAuthor,item.firstTime,item.reNum,item.LastAuthor,item.LastTime,item.link))
                fp.write('{}\n '.format(item.title).encode('utf8'))
        logging.info(u'写入文本成功')

    def getpiclink(self):
        piclink = []
        for item in self.items:
            piclink.append(self.url[0:20] + item.link)
        logging.info(u'返回图片帖子链接成功')
        return piclink




class picInfo(object):

    def __init__(self,links):
        self.links = links
        self.imgurls = []
        self.spider()
        self.pipeline()


    def spider(self):

        if self.links == None:
            logging.error('无图片链接')
        else:
            for link in self.links:
                htmlContent = getResponseContent(link)
                soup =  BeautifulSoup(htmlContent,'lxml')
                tagDiv = soup.find('div',attrs={'id':'tpc'})
                img = tagDiv.find('div',attrs={'class':'quote-content'}).find_all('img')
                if img == None:
                    continue
                else:
                    for subimg in img:
                     
                        if subimg.get('data-original') == None:
                            imgurl = subimg.get('src')
                        else:
                            imgurl = subimg.get('data-original')
                        self.imgurls.append(imgurl)
        logging.info(u'获取图片链接成功')

    def pipeline(self):

        for i in range(len(self.imgurls)):
            if self.imgurls[i][-3:] == 'png':
                imgname = str(i) + '.png'
            elif self.imgurls[i][-3:] == 'jpg':
                imgname = str(i) + '.jpg'
            elif self.imgurls[i][-4:] == 'jpeg':
                imgname = str(i) + '.jpeg'
            elif self.imgurls[i][-3:] == 'gif':
                imgname = str(i) + '.jpeg'
            else:
                continue
            img = getResponseContent(self.imgurls[i])

            with open (imgname, 'ab') as fp:
                fp.write(img)
        logging.info(u'写入图片成功')

if __name__ == '__main__':
    logging.basicConfig(level= logging.INFO)
    url = u'https://bbs.hupu.com/bxj'
    HUPU = getHupuInfo(url)
    picurls = HUPU.getpiclink()
    PIC = picInfo(picurls)

 

四:熟悉常用的HDFS操作

  1. 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词.
  2. 在本地查看文件位置(ls)
  3. 在本地显示文件内容
    cd /usr/local/hadoop
        touch test1.txt
        cat test1.txt

     

  4. 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。
    ./sbin/start-dfs.sh
        ./bin/hdfs dfs -mkdir -p /user/hadoop
        ./bin/hdfs dfs -mkdir input
        ./bin/hdfs dfs -put ./test1.txt input

     

  5. 查看hdfs中的文件(-ls)
    ./bin/hdfs dfs -ls /input

     

  6. 显示hdfs中该的文件内容
    ./bin/hdfs dfs -cat input/test1.txt

     

  7. 删除本地的txt文件并查看目录
    ./bin/hdfs dfs -rm -ls input/test1.txt

     

  8. 从hdfs中将txt下载地本地原来的位置。
    ./bin/hdfs dfs -get input/test.txt ~/test1.txt

     

  9. 从hdfs中删除txt并查看目录
    ./bin/hdfs dfs -rm -ls input/test1.txt

    向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;

    if $(hdfs dfs -test -e text.txt);
    then $(hdfs dfs -appendToFile local.txt text.txt);
    else $(hdfs dfs -copyFromLocal -f local.txt text.txt);
    fi

     

     

    从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;

    if $(hdfs dfs -test -e file:///home/hadoop/text.txt);
    then $(hdfs dfs -copyToLocal text.txt ./text2.txt); 
    else $(hdfs dfs -copyToLocal text.txt ./text.txt); 
    fi

     

    将HDFS中指定文件的内容输出到终端中;

    hdfs dfs -cat text.txt

     

    显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

    hdfs dfs -ls -h text.txt

     

    给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

    hdfs dfs -ls -R -h /user/hadoop

     

    提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;

    if $(hdfs dfs -test -d dir1/dir2);
    then $(hdfs dfs -touchz dir1/dir2/filename); 
    else $(hdfs dfs -mkdir -p dir1/dir2 && hdfs dfs -touchz dir1/dir2/filename); 
    fi
    删除文件:hdfs dfs -rm dir1/dir2/filename

     

    提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;

    创建目录:hdfs dfs -mkdir -p dir1/dir2
    删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
    强制删除目录:hdfs dfs -rm -R dir1/dir2

     

    向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

    复制代码
    复制代码
    复制代码
    追加到文件末尾:hdfs dfs -appendToFile local.txt text.txt
    追加到文件开头:
    (由于没有直接的命令可以操作,方法之一是先移动到本地进行操作,再进行上传覆盖):
    hdfs dfs -get text.txt
    cat text.txt >> local.txt
    hdfs dfs -copyFromLocal -f text.txt text.txt
    复制代码
    复制代码
    复制代码

     

    删除HDFS中指定的文件;

    hdfs dfs -rm text.txt

     

    删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;

    删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
    强制删除目录:hdfs dfs -rm -R dir1/dir2

     

    在HDFS中,将文件从源路径移动到目的路径。

    hdfs dfs -mv text.txt text2.txt
    •  

      从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;

      if $(hdfs dfs -test -e file:///home/hadoop/text.txt);
      then $(hdfs dfs -copyToLocal text.txt ./text2.txt); 
      else $(hdfs dfs -copyToLocal text.txt ./text.txt); 
      fi

       

      将HDFS中指定文件的内容输出到终端中;

      hdfs dfs -cat text.txt

      显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

      hdfs dfs -ls -h text.txt

      给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

      hdfs dfs -ls -R -h /user/hadoop

      提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;

      if $(hdfs dfs -test -d dir1/dir2);
      then $(hdfs dfs -touchz dir1/dir2/filename); 
      else $(hdfs dfs -mkdir -p dir1/dir2 && hdfs dfs -touchz dir1/dir2/filename); 
      fi
      删除文件:hdfs dfs -rm dir1/dir2/filename

      提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;

      创建目录:hdfs dfs -mkdir -p dir1/dir2
      删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
      强制删除目录:hdfs dfs -rm -R dir1/dir2

      向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

      复制代码
      复制代码
      复制代码
      追加到文件末尾:hdfs dfs -appendToFile local.txt text.txt
      追加到文件开头:
      (由于没有直接的命令可以操作,方法之一是先移动到本地进行操作,再进行上传覆盖):
      hdfs dfs -get text.txt
      cat text.txt >> local.txt
      hdfs dfs -copyFromLocal -f text.txt text.txt
      复制代码
      复制代码
      复制代码
      • 删除HDFS中指定的文件;
        hdfs dfs -rm text.txt
      • 删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;
        删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
        强制删除目录:hdfs dfs -rm -R dir1/dir2
      • 在HDFS中,将文件从源路径移动到目的路径。
        hdfs dfs -mv text.txt text2.txt

四:数据结构化

import requests
from bs4 import BeautifulSoup
from datetime import datetime
import re
import pandas

#获取点击次数
def getClickCount(newsUrl):
newId=re.search('\_(.*).html',newsUrl).group(1).split('/')[1]
clickUrl="http://oa.gzcc.cn/api.php?op=count&id={}&modelid=80".format(newId)
clickStr = requests.get(clickUrl).text
count = re.search("hits'\).html\('(.*)'\);", clickStr).group(1)
return count

#获取新闻详情
def getNewsDetail(newsurl):
resd=requests.get(newsurl)
resd.encoding='utf-8'
soupd=BeautifulSoup(resd.text,'html.parser')

news={}
news['title']=soupd.select('.show-title')[0].text
# news['newsurl']=newsurl
info=soupd.select('.show-info')[0].text
news['dt']=datetime.strptime(info.lstrip('发布时间:')[0:19],'%Y-%m-%d %H:%M:%S')
news['click'] = int(getClickCount(newsurl))
if info.find('来源')>0:
news['source'] =info[info.find('来源:'):].split()[0].lstrip('来源:')
else:
news['source']='none'
if info.find('作者:') > 0:
news['author'] = info[info.find('作者:'):].split()[0].lstrip('作者:')
else:
news['author'] = 'none'
# news['content']=soupd.select('.show-content')[0].text.strip()

#获取文章内容并写入到文件中
content=soupd.select('.show-content')[0].text.strip()
writeNewsContent(content)

return news

def getListPage(listPageUrl):
res=requests.get(listPageUrl)
res.encoding='utf-8'
soup=BeautifulSoup(res.text,'html.parser')

newsList=[]
for news in soup.select('li'):
if len(news.select('.news-list-title'))>0:
a=news.select('a')[0].attrs['href']
newsList.append(getNewsDetail(a))
return (newsList)

#数据写入文件
def writeNewsContent(content):
f=open('gzccNews.txt','a',encoding='utf-8')
f.write(content)
f.close()

def getPageNumber():
ListPageUrl="http://news.gzcc.cn/html/xiaoyuanxinwen/"
res=requests.get(ListPageUrl)
res.encoding='utf-8'
soup=BeautifulSoup(res.text,'html.parser')
n = int(soup.select('.a1')[0].text.rstrip('条'))//10+1
return n


newsTotal=[]
firstPage='http://news.gzcc.cn/html/xiaoyuanxinwen/'
newsTotal.extend(getListPage(firstPage))

n=getPageNumber()
for i in range(n,n+1):
listUrl= 'http://news.gzcc.cn/html/xiaoyuanxinwen/{}.html'.format(i)
newsTotal.extend(getListPage(listUrl))

df=pandas.DataFrame(newsTotal)
# df.to_excel("news.xlsx")

# print(df.head(6))
# print(df[['author','click','source']])
# print(df[df['click']>3000])

sou=['国际学院','学生工作处']
print(df[df['source'].isin(sou)])

 

posted @ 2018-05-25 22:00  186-叶晓钿  阅读(219)  评论(0编辑  收藏  举报