Python编程:百度贴吧图片分页批量下载爬虫

作者介绍:
一名热爱LoveLive,偶像大师,公主连结等的UP主,同时也是一名大学生~~近来正在学习Python等知识。
欢迎关注我的B站账号:UID 32291160 萌萌哒汪帕斯

爬虫功能介绍及运行效果:
最近一直沉迷于萌战吧,感觉里面有特别多好图片,一张一张下载固然可以,但是却需要浪费大量的时间去浏览和翻页。特别是有时候我想从贴吧中找手机壁纸、电脑壁纸还有头像之类的,苦于选择哪个比较好,其实还不如把所有的照片都先下载下来以后再慢慢挑选。因此,我编写了百度贴吧图片下载爬虫,使用我的代码可以实现以下功能:
1.仅需输入贴吧帖子网址、需要保存文件的路径和需要保存图片的起止页数即可快速下载所有您需要的图片。本次运行环境为mac python3.9 Shell,效果如下图所示:

2.自动探寻贴吧帖子总共页数,可自由选择下载图片的页数范围。
3.运行快速,下载1张图片约为0.3秒。运行结束前可以显示总共耗时,依据网络、图片大小及电脑情况,运行效果会有所不同。
爬虫使用案例:
我们以贴吧帖子:https://tieba.baidu.com/p/7170052180 作为案例进行展示。

我们想下载虹团动画的这些图片,因此首先输入网址,然后保存在download文件夹中。系统提示我们该帖子一共有2页,因为是想下载所有图片,因此我们输入起始页数为1,终止页数为2。


我们去文件夹中看一看下载好的图片:

非常的迅速,仅仅用7秒就下载好了该贴的所有图片!
可执行文件下载地址(windows exe):
文件见个人博客
https://www.fyf99170.top/tiebapic/
代码展示:
代码见个人博客
https://www.fyf99170.top/tiebapic/