Python实现批量下载文件的示例代码

前言

下载文件是我们在日常工作中常常要做的一件事情。当我们需要从互联网上批量下载大量文件时,手动一个一个去下载显然不够高效。为了解决这个问题,我们可以使用Python编写一个批量下载文件的脚本,让它自动帮我们下载文件。同时,为了避免下载过程中被网站禁止访问,我们也可以运用代理ip。

在本文中,我将会分为以下几个部分来介绍如何使用Python进行批量下载:

  • 准备工作
  • 批量下载文件
  • 添加代理ip
  • 处理异常

在本文中,我将使用requests库来进行文件下载和代理设置。我们将会介绍如何通过requests库来下载文件、如何设置代理ip来绕过网站的访问限制,以及如何处理下载过程中可能会出现的异常。

 

1. 准备工作

在进行批量下载之前,我们需要先确定要下载的文件的URL列表。可以将这些URL存储在一个文本文件中,每行一个URL,例如:

1
2
3
http://example.com/file1.zip
http://example.com/file2.zip
http://example.com/file3.zip

我们可以使用Python的open函数读取这个文本文件并获取URL列表:

1
2
with open('urls.txt', 'r') as f:
    urls = f.read().splitlines()

这里我们使用了read函数将整个文本文件内容读入内存,然后使用splitlines函数将每一行的URL转换成一个列表。

 

2. 批量下载文件

批量下载文件的代码主要分为两个部分,一个是从远程服务器下载文件,另一个是将文件保存到本地。

我们可以使用Python的requests库来下载文件,并且可以通过设置stream=True参数来实现分块下载,有利于下载大文件时减少内存占用。

1
2
3
4
5
6
7
8
9
10
import requests
 
def download_file(url, output_path):
    with requests.get(url, stream=True) as r:
        r.raise_for_status()
        with open(output_path, 'wb') as f:
            for chunk in r.iter_content(chunk_size=8192):
                if chunk:
                    f.write(chunk)
                    f.flush()

这个函数接收两个参数,一个是远程服务器上的文件URL,另一个是本地文件路径。内部使用requests.get函数来下载文件,将响应对象以二进制流的方式写入本地文件中。

 

3. 添加代理ip

有些网站可能会对同一IP地址下载次数进行限制,导致我们无法下载。为了绕过这个限制,我们可以使用代理IP。

代理IP是一种通过转发来实现客户端与服务端间请求、响应的中间服务器。我们可以使用代理服务器来隐藏客户端的真实IP地址,从而绕过某些网站的下载限制。

下面的代码演示了如何设置代理IP:

1
2
3
4
5
6
7
8
9
import requests
 
proxies = {
    'http': 'http://127.0.0.1:8080',
    'https': 'https://127.0.0.1:8080'
}
 
with requests.get(url, proxies=proxies) as r:
    # 下载文件

这里我们定义了一个字典类型的proxies,其中key为协议类型,value为代理IP地址。然后在requests.get函数中设置proxies参数即可。

 

4. 处理异常

在实际使用中,我们可能会遇到诸如文件不存在、网络异常等问题,需要对这些异常进行处理,防止程序崩溃。

1
2
3
4
5
6
7
8
9
10
11
12
13
import requests
 
def download_file(url, output_path):
    try:
        with requests.get(url, stream=True) as r:
            r.raise_for_status()
            with open(output_path, 'wb') as f:
                for chunk in r.iter_content(chunk_size=8192):
                    if chunk:
                        f.write(chunk)
                        f.flush()
    except requests.exceptions.RequestException as e:
        print(f'Error downloading {url}: {e}')

在代码中,我们使用try/except语句来捕获requests库可能抛出的异常,并使用print语句将异常信息输出到控制台。这样,即使下载文件失败,程序也不会因此停止运行。

 

完整代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
import requests
 
def download_file(url, output_path):
    try:
        with requests.get(url, stream=True) as r:
            r.raise_for_status()
            with open(output_path, 'wb') as f:
                for chunk in r.iter_content(chunk_size=8192):
                    if chunk:
                        f.write(chunk)
                        f.flush()
    except requests.exceptions.RequestException as e:
        print(f'Error downloading {url}: {e}')
         
with open('urls.txt', 'r') as f:
    urls = f.read().splitlines()
 
for url in urls:
    filename = url.split('/')[-1]
    download_file(url, filename)

这是一个基本的批量下载代码,可以从urls.txt文件中读取文件URL列表,并自动下载到当前目录中。

如果你需要使用代理ip下载文件,可以使用以下代码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
import requests
 
proxies = {
    'http': 'http://127.0.0.1:8080',
    'https': 'https://127.0.0.1:8080'
}
 
def download_file(url, output_path):
    try:
        with requests.get(url, proxies=proxies, stream=True) as r:
            r.raise_for_status()
            with open(output_path, 'wb') as f:
                for chunk in r.iter_content(chunk_size=8192):
                    if chunk:
                        f.write(chunk)
                        f.flush()
    except requests.exceptions.RequestException as e:
        print(f'Error downloading {url}: {e}')
 
with open('urls.txt', 'r') as f:
    urls = f.read().splitlines()
 
for url in urls:
    filename = url.split('/')[-1]
    download_file(url, filename)

 

这个代码与前面的批量下载代码类似,只是在下载文件时设置了proxies参数。

 

总结

使用Python编写批量下载代码,可以提高工作效率。本文介绍了如何使用requests库来下载文件,如何设置代理IP来绕过某些网站的下载限制,并且展示了如何处理下载过程中可能会出现的异常。

posted @ 2024-04-22 16:53  听雨声  阅读(29)  评论(0编辑  收藏  举报