飞道的博客

【爬虫实战】手把手教你用Python爬取某图网4000张图片

179人阅读  评论(0)

相信很多设计小伙伴有好的灵感,但是没有好的设计素材,今天它来了。摄图网4000张设计素材,取之不尽,如下图所示:

好了,废话不多说,开始用Python采集。

01需求分析

采集摄图网的素材图片,目标网址–>请求数据–>解析数据–>提取数据–>保存数据。

02技术栈

首先我们用到的技术包括:urllib,requests,bs4等。

03采集流程

加粗样式

1、分析网页结构

打开网址:https://699pic.com/paihang/tupian.html,分析网页结构,我们可以看到首页图片数据杂论,这里我们爬取的是"今日热门"的图片,点击发现更多:来到目标页面,拖动滚轮滑到底部,发现有40个分页,也就是我们今天要爬取的4000张设计图片:

2、发起请求

接着对列表中的每一条url进行遍历,然后发起请求:

for url in urllist: 
    resp = requests.get(url,headers=hd) 
    html = resp.content.decode('utf-8') 

关注微信公众号:【软件测试小dao】免费领取软件测试资料
更多软件测试资源请加软件测试技术交流群:1033482984

3、数据解析

得到了一个html对象,爬取页面数据信息后,需要对页面进行解析,这里我使用到的解析库是bs4(偏爱),当然xpath也是可以的。通过分析页面元素,我们发现每个翻页里面的图片都有这样的规律:

因此可以通过bs4的select方法抓取所有class='lazy’的img标签,得到一个列表,然后通过测试发现图片的链接存放在img标签的data-original属性里,通过img.attrs[‘data-original’]得到,再与’https:'进行字符串拼接,得到完整图片链接。

	for img in imgs: 
	           img_url = img.attrs['data-original'] 
	           total_url = base_http_str + img_url 
	           print(total_url) 
	           # print('--'*60) 
	           imgurllist.append(total_url) 

4.提取保存数据

最后运用urllib中的urlretrive方法,把图片保存到本地。

def writeData(imgurllist): 
    for index,url in enumerate(imgurllist): 
        urllib.request.urlretrieve(url,'image/'+ '%s.png'%index) 
        print('第%s张图片下载完成'%index) 

04运行爬虫

运行爬虫代码,效果如下:

图片就下载完成了,不过运用传统方法有点慢,下次试试多线程,提升爬虫效率。

燃烧秀发输出内容,如果有一丢丢收获,点个赞鼓励一下吧!


转载:https://blog.csdn.net/m0_57162664/article/details/116569718
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场