代码操作浏览器

今日内容

1 selenium基本使用

# 由于requests不能执行js,有的页面内容,我们在浏览器中可以看到,但是请求下来没有---》selenium模块:模拟操作浏览器,完成人的行为
# selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题

# selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器

# 安装
pip3.8 install selenium
# 使用
	-由于是驱动浏览器:需要确定好驱动哪个浏览器(ie,火狐,谷歌(推荐))
    -下载相应的驱动
# 1 基本使用
from selenium import webdriver
import time
# # 驱动谷歌浏览器----》下载谷歌驱动---》谷歌官网访问不到---》访问淘宝镜像站下载:https://registry.npmmirror.com/binary.html?path=chromedriver/
# # ###### 浏览器版本要和驱动对应好  103.0.5060.134
# # 放到项目路径下
#
# #第一步: 等同于你双击谷歌浏览器,打开了浏览器
# # bro=webdriver.Chrome(executable_path='./chromedriver.exe')
# bro=webdriver.Chrome() # 不写路径,要放到项目路径或环境变量中
# # 第二步:在地址栏输入地址
# bro.get('http://www.baidu.com')
#
# time.sleep(2)
# # 第三步:关闭浏览器
# bro.close()  # 关闭标签
#
# # bro.quit()  # 关闭浏览器


# 2 模拟登录百度
from selenium.webdriver.common.by import By

# bro = webdriver.Chrome()
# bro.implicitly_wait(10)  # 隐士等待,无论找页面中那个标签,如果找不到,会等待最多10s钟
# bro.get('https://www.baidu.com/')
# # 1 根据标签id号,获取标签
# # btn=bro.find_element_by_id('s-top-loginbtn')  # 老版本
# # btn=bro.find_element(by=By.ID, value='s-top-loginbtn') # 新版本
# # 2 根据文字找标签:a标签的文字
# btn = bro.find_element(by=By.LINK_TEXT, value='登录')
# print(btn)
#
# # 点击一下按钮
# btn.click()
# # 用户名,密码输入框
# username = bro.find_element(by=By.ID, value='TANGRAM__PSP_11__userName')
# password = bro.find_element(by=By.ID, value='TANGRAM__PSP_11__password')
# # 写入文字
# username.send_keys('616564099@qq.com')
# time.sleep(1)
# password.send_keys('lqz123')
#
# btn_login=bro.find_element(by=By.ID,value='TANGRAM__PSP_11__submit')
# btn_login.click()
# time.sleep(8)
#
#
# bro.close()  # 关闭标签



#1  查找控件:bro.find_element(by=By.ID,value='TANGRAM__PSP_11__submit')
# 1、find_element_by_id   # 根据id
# 2、find_element_by_link_text # 根据a标签的文字
# 3、find_element_by_partial_link_text # 根据a标签的文字模糊匹配
# 4、find_element_by_tag_name    # 根据标签名
# 5、find_element_by_class_name  # 根据类名
# 6、find_element_by_name        # 根据name属性

# 7、find_element_by_css_selector  # css选择器
# 8、find_element_by_xpath         # xpath

# 2 点击某个按钮
# 标签对象.click()

# 3 向输入框中写内容
# 标签对象.send_keys(内容)




# 打开百度,搜索美女


bro=webdriver.Chrome()
bro.implicitly_wait(10)
bro.get('https://www.baidu.com/')
input_a=bro.find_element(By.NAME,value='wd')
input_a.send_keys('美女')
btn=bro.find_element(By.ID,'su')
time.sleep(1)
btn.click()

time.sleep(3)
bro.close()

2 无界面浏览器


# 不显示的打开浏览器的图形化界面,还能获取数据
import time

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
chrome_options = Options()

chrome_options.add_argument('window-size=1920x3000') #指定浏览器分辨率
chrome_options.add_argument('--disable-gpu') #谷歌文档提到需要加上这个属性来规避bug
chrome_options.add_argument('--hide-scrollbars') #隐藏滚动条, 应对一些特殊页面
chrome_options.add_argument('blink-settings=imagesEnabled=false') #不加载图片, 提升速度
chrome_options.add_argument('--headless') #浏览器不提供可视化页面. linux下如果系统不支持可视化不加这条会启动失败

driver=webdriver.Chrome(options=chrome_options)
driver.get('https://www.cnblogs.com/')
print(driver.page_source)  # 当前页面的内容(html内容)
time.sleep(2)
driver.close()

3 selenium其它用法

3.1 获取位置属性大小,文本

# import time
# import base64
# from selenium import webdriver
# from selenium.webdriver.common.by import By
# bro=webdriver.Chrome()
# bro.get('https://kyfw.12306.cn/otn/resources/login.html')
# bro.implicitly_wait(10)
# btn=bro.find_element(By.LINK_TEXT,'扫码登录')
#
# btn.click()
# time.sleep(1)
# img=bro.find_element(By.ID,'J-qrImg')
# print(img.location)
# print(img.size)
# print(img.id)  # 不是标签的id号
# print(img.tag_name)  # 是标签的名字
# # print(img.get_attribute('src'))
# s=img.get_attribute('src')
# with open('code.png','wb') as f:
#     res=base64.b64decode(s.split(',')[-1])
#     f.write(res)
#
#
# bro.close()

3.2 等待元素被加载

# 程序操作页面非常快,所以在取每个标签的时候,标签可能没有加载号,需要设置等待
	-显示等待:不需要了解
    -隐士等待:bro.implicitly_wait(10)

3.3 元素操作

# 1 搜索标签:find_element:找第一个      find_elements:找所有
    # 1、find_element_by_id   # 根据id
    # 2、find_element_by_link_text # 根据a标签的文字
    # 3、find_element_by_partial_link_text # 根据a标签的文字模糊匹配
    # 4、find_element_by_tag_name    # 根据标签名
    # 5、find_element_by_class_name  # 根据类名
    # 6、find_element_by_name        # 根据name属性
    # 7、find_element_by_css_selector  # css选择器
    # 8、find_element_by_xpath         # xpath

# 2 点击
    标签.click()
# 3 写入文字
	标签.send_keys()
# 4 清空
	标签.clear()
    
    
# 5 滑动屏幕到最底部(滑动加载)
bro.execute_script('scrollTo(0,document.body.scrollHeight)')

3.4 执行js代码

import time
from selenium import webdriver
from selenium.webdriver.common.by import By
bro=webdriver.Chrome()


bro.get('https://www.pearvideo.com/category_8')
time.sleep(1)
# 这里面写js代码
# bro.execute_script('scrollTo(0,document.body.scrollHeight)')
# bro.execute_script('alert(md5_vm_test)')
bro.execute_script('alert(md5_vm_test())')


time.sleep(1)
bro.close()

# 执行js用途:1 普通滑屏,打开新标签   2 可以执行js代码,别人网站的变量,函数,都可以拿到并执行的

3.5 切换选项卡

import time
from selenium import webdriver
from selenium.webdriver.common.by import By
bro=webdriver.Chrome()


bro.get('https://www.pearvideo.com/category_8')

# 打开新的选项卡
bro.execute_script('window.open()')
# bro.switch_to_window(bro.window_handles[1])  # 老版本,弃用了
bro.switch_to.window(bro.window_handles[1])
bro.get('http://www.baidu.com')

time.sleep(2)
bro.switch_to.window(bro.window_handles[0])
time.sleep(2)
# bro.close()
bro.quit()

3.6 浏览器前进后退

import time
from selenium import webdriver
from selenium.webdriver.common.by import By
bro=webdriver.Chrome()


bro.get('https://www.pearvideo.com/category_8')
time.sleep(1)
bro.get('https://www.baidu.com')

bro.back() # 后退

time.sleep(1)
bro.forward()


bro.quit()

3.7 异常处理

import time
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.common.exceptions import TimeoutException,NoSuchElementException,NoSuchFrameException
bro=webdriver.Chrome()

try:
    bro.get('https://www.pearvideo.com/category_8')
    time.sleep(1)
    bro.get('https://www.baidu.com')

    bro.back() # 后退
    raise Exception('报错了')
    time.sleep(1)
    bro.forward()
except Exception as e:
    print(e)
finally:
    bro.quit()

4 selenium登录cnblogs获取cookie

import time
import json
from selenium import webdriver
from selenium.webdriver.common.by import By
bro=webdriver.Chrome()
bro.implicitly_wait(10)


####1  登录成功
# try:
#     bro.get('https://www.cnblogs.com/')
#     time.sleep(1)
#     btn=bro.find_element(By.LINK_TEXT,'登录')
#     btn.click()
#     time.sleep(3)
#     username=bro.find_element(By.ID,'mat-input-0')
#     password=bro.find_element(By.ID,'mat-input-1')
#     username.send_keys('616564099@qq.com')
#     time.sleep(1)
#     password.send_keys('lqz')
#
#     btn_login=bro.find_element(By.CSS_SELECTOR,'body > app-root > app-sign-in-layout > div > div > app-sign-in > app-content-container > div > div > div > form > div > button')
#     btn_login.click()
#     # time.sleep(20) # 人工破解验证码,登录成功
#     input()
#     cookies=bro.get_cookies()
#     print(cookies)
#     with open('cnblgos.json','w',encoding='utf-8') as f:
#         json.dump(cookies,f)
#
#     time.sleep(2)
#
# except Exception as e:
#     print(e)
#
# finally:
#     bro.quit()


### 2 打开页面
try:
    bro.get('https://www.cnblogs.com/')
    time.sleep(2)
    # 把cookie写入浏览器,刷新一下,就登录了
    with open('cnblgos.json','r',encoding='utf-8') as f:
        res=json.load(f)
    for item in res:
        bro.add_cookie(item)

    # 刷新浏览器
    bro.refresh()
    time.sleep(2)

except Exception as e:
    print(e)

finally:
    bro.quit()

5 抽屉半自动点赞

# selenium的cookie和requests用的cookie格式不太一样
	[{},{}]--->{'key':'value'}
    name,value--->{name:value,name:value}

7 几个爬虫案例

# 2 爬红楼梦小说

#http://www.shicimingju.com/book/hongloumeng.html

# import requests
#
# from bs4 import BeautifulSoup
# ret=requests.get('https://www.shicimingju.com/book/hongloumeng.html')
# ret.encoding='utf-8'
#
# soup=BeautifulSoup(ret.text,'lxml')
# li_list=soup.find(class_='book-mulu').find('ul').find_all('li')
# with open('hlm.txt','w',encoding='utf-8') as f:
#     for li in li_list:
#         content=li.find('a').text
#         url='https://www.shicimingju.com'+li.find('a').get('href')
#         f.write(content)
#         f.write('\n')
#         res_content=requests.get(url)
#         res_content.encoding = 'utf-8'
#         res_content.encoding=res_content.apparent_encoding
#         soup2=BeautifulSoup(res_content.text,'lxml')
#         content_detail=soup2.find(class_='chapter_content').text
#         f.write(content_detail)
#         f.write('\n')
#         print(content,'写入了')


# 3 爬肯德基门店

# http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword
import requests

header = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36'
}
data = {
    'cname': '',
    'pid': 20,
    'keyword': '浦东',
    'pageIndex': 1,
    'pageSize': 10
}
ret = requests.post('http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword', data=data, headers=header)
print(ret.json())


posted on 2022-08-02 19:10  淦白嫖怪  阅读(125)  评论(0)    收藏  举报

导航