百度贴吧自动回帖的两种方式,使用requests(urllib2)和selenium两种方式回帖

本文介绍,回复贴吧指定某楼层主的帖子的方法。在这里不介绍无限发主贴和无限回复主贴的方法,无限发主题帖会爆吧,引起别人的反感,并且很容易遭到吧主的封杀;无限回主题帖,会让整个帖子的每楼的回复充满了自己的内容,严重影响别人阅读回帖,可能被举报遭到吧主禁言。只要看了本文就可以无限回帖了,如果需要改成发主题帖或者回主题帖,那肯定只会比这简单,自己理解修改下就可以了。

 

一般向系统里面添加数据,无非就几种手段,普通人最常用的是用浏览器或者app手动发帖回帖。

第二种是使用类似qtp  selenium之类的自动化测试工具,自动操作浏览器来进行发帖。

第三种是使用jmeter lr python的requests或者urllib之类的,通过抓包分析,然后请求发帖的接口。

第四种是直接向数据库中插入发帖数据,但百度的数据库密码我们肯定是破解不了的,不适合这种方法。

 

所以本文主要讲述第二种和第三种发帖。

在这里不介绍qtp发帖,者工具太庞大了,并且是收费软件。python安装的人比较多,所以介绍python+selenium回帖。

通过接口方式回帖,以python的requests为例。

话不多说,上代码。

 1 #coding=utf-8 
2
from selenium import webdriver 3 from selenium.webdriver.support import expected_conditions as EC 4 from selenium.webdriver.common.by import By 5 import re,time 6 ##########加载profile,可以免登陆 7 #profile = webdriver.FirefoxProfile(r'C:\Users\Administrator\AppData\Local\Mozilla\Firefox\Profiles\urkg7uqr.default') 8 #driver = webdriver.Firefox(profile,timeout=300) 9 10 #driver = webdriver.Firefox(timeout=50) 11 driver=webdriver.Chrome() 12 driver.get('https://tieba.baidu.com/p/4778694923') 13 str_cookie='BIDUPSID=1B0EC2BA376CBF4E68F4952620B2C7A6; PSTM=1491645170; BDUSS=3NNcWtmZHI2MXdqaE55MUhUN35EYTR-cHppV2VCdDYxLXE5T3Z5eTVvNlhRQkJaSVFBQUFBJCQAAAAAAAAAAAEAAAAw2CBnudvS9LTzyqrAsgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAJez6FiXs-hYa; BAIDUID=17ECF3B92FDCAFB2D548C94DXXXXXXX:FG=1' #cookie字符串用f12查看网络中的请求贴吧的,请求头中的cookie 14 list=re.findall('([\s\S]*?)=([\s\S]*?); ',str_cookie+'; ') 15 for l in list: 16 ck={'name':l[0],'value':l[1]} 17 print ck 18 driver.add_cookie(ck) #来个正则把cookie字符串转成slenium的cookie格式字典,添加到driver。cookie字符串是请求贴吧时用f12查看的 network的headers的请求头的cookie,复制就可以了,这样selenium也可以免登陆 19 driver.get('https://tieba.baidu.com/p/4778694923') 20 21 ###########回主贴,写内容但不回帖 22 driver.find_element_by_id('ueditor_replace').click() 23 time.sleep(5) #停5秒钟可以发现上面的代码click已经自动拖到页面底部了,没有必要先点击输入框直接赋值也可以,考虑到模拟正常情况,还是点击下,因为百度有些post参数是动态的。 24 js="document.getElementById('ueditor_replace').innerHTML='abc'" 25 driver.execute_script(js) 26 27 28 all=driver.find_elements_by_css_selector('div.l_post') ###获取所有层主的外层div 29 print all 30 for a in all: 31 #print a.text,'*************************\n' 32 bt='' 33 try: 34 bt=a.find_element_by_id('post_content_106859548218') ####回复指定的层主 35 36 except Exception,e: 37 pass 38 if bt!='': 39 #a.find_element_by_class_name('lzl_link_unfold').click() #首次回复 40 try: 41 bt.click() #这句会报错,但可以帮助跳到指定层主,非常有用,如果不跳到指定层主的位置,就会定位不到那个层主的‘我也说一句’的按钮,百度贴吧会在我们离开层主的视界后自动收缩层主的跟帖,所以会造成定位不到。肉眼很难观察到,用f12反复关闭和打开,再搜索可以看到。 42 except Exception,e: 43 pass 44      time.sleep(3) 45 print a.tag_name 46 print a.text,'\n*****************************************************************' 47 for i in range(1000): 48 #driver.find_element_by_xpath('//*[@id="j_p_postlist"]/div[22]/div[2]/div[2]/div[2]/div[2]/ul/li[6]/a').click() #这种方式不靠谱,前面插了广告或者删了帖子,可能回复层别的层主了 49 a.find_element_by_class_name('j_lzl_p').click() 52 #a.find_elements_by_partial_link_text('我也说一句')[0].click() ##我也说一句按钮 53 54 driver.find_element_by_id('j_editor_for_container').click() 55 driver.execute_script('document.getElementById("j_editor_for_container").innerHTML="hello"') 56 driver.find_element_by_css_selector('.lzl_panel_submit').click() 57 58 time.sleep(60) #每隔60秒回帖






从第28行道49行繁琐了一些,功能主要是跳转到指定的层主的页面位置,换种方法也可以这样
floor=dr.find_element_by_xpath('//span[contains(text(),"21楼")]')

dr.execute_script("arguments[0].scrollIntoView();", floor)

time.sleep(2)

#再去定位元素

tar = dr.find_element_by_xpath('//div[contains(@data-field,"157780442")]//a[contains(text(),"我也说一句")]')

tar.click()


 

下面来上的是requests代码

#coding:utf-8
import requests
import re
import json
import time
ss=requests.session()

str_cookie='BAIDUID=9BB79332C64C55ADFF47BB66E2XXXXXXXXX:FG=1; PSTM=1490700622; BIDUPSID=E5593392C48A25ACD2751413DE5A5707; TIEBA_USERTYPE=ab202a741d89ac4664dafb03; bdshare_firstime=1491115637991; BDSFRCVID=A08sJeC62ZvIB7ciINso-O6ye2xAuYRTH6aouvwQVMCH1Qmt0l4GEG0PqM8g0KubLsfKogKK3gOTH4rP; H_BDCLCKID_SF=tJuO_I8afI83fP36q4r2DjvWqxby26nCtnbeaJ5nJDoAflTtjPbEyfCyhgc9tJc-tjbCLxT4QpP-HJ7G5RJG3xudyaQI2R0jannxKl0MLPjYbb0xynoDXbtEyUnMBMPe52OnaIb-LIcjqR8Zj6KajTbP; bottleBubble=1; pgv_pvi=3998808064; pgv_si=s197984256; BDRCVFR[S_ukKV6dOkf]=mk3SLVN4HKm; PSINO=6; H_PS_PSSID=1448_19035_21084; BDORZ=FFFB88E999055A3F8A630C64834BD6D0; TIEBAUID=3b218806eb200790fd2ae7b1; BDUSS=F-LVMwU09YOVBpcEZwZjlYRVlEbVY0MjZNZ0dWU1dTaHdvM0k2UmZYQ3hSaEJaSVFBQUFBJCQAAAAAAAAAAAEAAAAw2CBnudvS9LTzyqrAsgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAALG56FixuehYNH; STOKEN=5cb27861dad46603e26d289c5a8ec87c75e0acaf2a2ad105c34cf3c029c9f757; wise_device=0; LONGID=1730205744;'
reg='([\s\S]*?)=([\s\S]*?);'
dict_cookie={}
for c in  re.findall(reg,str_cookie):
   dict_cookie[c[0]]=c[1]
print 'dict_cookie:',dict_cookie           ###cookie字符串转字典,也可以直接把cookie字符串携带在requests的请求头中实现登录

user_agent_list = ['Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36',
                  'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.2372.400 QQBrowser/9.5.10548.400'
    ]
header={}
import random
dict_data={
'ie':'utf-8',
'kw':'中华城市',
'fid':'429477',
'tid':'5063074699',
'floor_num':'2',
'quote_id':'106047109156',
'rich_text':'1',
'tbs':'1d2e70d051724ba01491647010',
'content':'啦啦啦',
'lp_type':'0',
'lp_sub_type':'0',
'new_vcode':'1',
'tag':'11',
'repostid':'106047109156',
'anonymous':'0',

}   ####抓包得到的
dict_data['kw']='中华城市'#重要,不能填错
dict_data['fid']='429477'        #fid是贴吧什么时候建的,可以抓包也可以用上面的获取fid的接口得到,fid指的是贴吧是第多少个建的贴吧,数字越小,说明贴吧建的越早
dict_data['tbs']='1d2e70d051724ba01491647010'   ##这个值是有生命周期的,用个天把时间没问题
dict_data['tid']='5065229106'    ##tid指的是主题帖子的id
dict_data['floor_num']='2'     ###这个不重要,随便多少都可以
dict_data['quote_id']='106092995926'      #用f12定位看以看到post_id字段,指的是层主帖子的id
dict_data['repostid']=dict_data['quote_id']
dict_data['content']='啦啦啦德玛西亚'   #content顾名思义是回复的内容了,除了这几个外其他的data参数都可以不修改。


#获取fid的接口 ,吧name换成贴吧名字,复制到浏览器地址栏回车就ok了http://tieba.baidu.com/f/commit/share/fnameShareApi?ie=utf-8&fname=%E6%B5%A0%E6%B0%B4%E4%BA%8C%E4%B8%AD

i=0

while(1):
    i=i+1
    try:
        header['User-Agent']=random.choice(user_agent_list)   ##习惯性的学爬虫来个随机换user-agent,但贴吧和知乎 这种都是基于账号追踪的,换ua和代理ip是没有任何作用的,逃避不了被识别为机器人
        header['Connection']='close'
        header.update({ 'Host':'tieba.baidu.com','Origin':'http://tieba.baidu.com','Referer':'http://tieba.baidu.com/p/5065229106'})

        dict_data['content']='哈哈哈哈'+str(i)

        res=ss.post('http://tieba.baidu.com/f/commit/post/add',cookies=dict_cookie,data=dict_data,headers=header)   
        res_content=res.content
        res_text=res.text

        print time.strftime('%Y-%m-%d %H:%M:%S',time.localtime(time.time())),'  ',json.dumps(json.loads(res_content),ensure_ascii=False) ###这样可以清楚的看到json里面的\u xxxx之类的对应的中文。

        if '"err_code":0' not in res.content:   ##errcode0表示回帖成功了

            i=i-1

        if '"err_code":220034' in res_content:
            time.sleep(300)     #说话太频繁,这时候不要太快回帖了,回了也没用,会连续返回errcode220034
        if '"need_vcode":0,' not in res_content:
            #print res_content
            print u'需要验证码'
            time.sleep(180)         ###如果回复太快了会弹出验证码,等一段时间不回帖就好啦。
    except Exception,e:
        #i=i-1
        print e
    time.sleep(10)                   ##每隔10秒回帖

上面就是介绍的两种方法了,一个从ui界面上回帖,一个从接口回帖。

用slenium回帖的好处是,不需要抓包理解http接口,和反复的测试总结出某些参数的意义和作用。上面的slenium代码没有加入处理验证码和禁言一段时间的情况。需要加上才能保证程序一直是可运行的,增强容错能力,不至于程序中断退出。

用requests的回帖方式,需要抓包,并且post参数中有个值是动态并且有生命周期的,这个不容易把握,好处是发帖速度非常快,如果不考虑百度限制的话,requests的回帖速度是slenium的几十倍甚至上百倍。

 

好了,介绍完了,那么大家需要注意的是,不管是selenium还是requets回帖,不要把回帖间隔设置的太小,否则轻则容易出很多验证码,中则禁言几个小时,重则永久性的被全吧范围封号之后无法使用回帖功能了。

 

posted @ 2017-05-07 02:18  北风之神0509  阅读(2430)  评论(0编辑  收藏  举报