小言_互联网的博客

用python搞网络爬虫开发,你把握住了吗?(系列文章建议收藏)

322人阅读  评论(0)

目录

 

前言

网络爬虫概述

 爬虫基本工作流程

(1)获取初始的URL

 (2)爬取对应URL地址的网页时,获取新的URL地址。

(3)将新的URL地址放入URL队列里面。

(4)从URL队列中读取新的URL,并爬取该网页,同时从新的网页中获取新的URL地址,重复上述的爬取过程

(5)设置结束的条件

结尾

 


前言

之前发过一个系列《Python语法学的咋样了,确定不看看这100道习题?》链接如下代码段中所示,python语法不太好的可以先练练这些题在看基于python的一些简单应用。

https://blog.csdn.net/qq_45049500/article/details/117365950?spm=1001.2014.3001.5501

那么我这个系列要写什么呢:

一、网络爬虫概述

1、网络爬虫概述 

2、网络爬虫的分类
3、网络爬虫的基本原理 
二、网络开发的常用技术

1、python的网络请求

2、对请求headers的处理
3、网络超时
4、代理服务
5、HTML解析
三、网络爬虫开发常用的框架

1、Scrapy爬虫框架

2、Crawiey爬虫框架
3、PySpider爬虫框架

网络爬虫,可以按照指定的规则(一些常见的网络爬虫算法)自动浏览或爬取网络中的信息,通过python可以轻松地编写爬虫程序或者脚本。这个系列就介绍通过python实现网络爬虫的一些基本知识和常用技术,有些专有名词对于小白来说可能不太友好,会通过具体的例子去解释这些专有名词是干什么的。

网络爬虫概述

你可能经常听别人说python爬虫特别好,可以特别快的获取大量信息或数据,那么这个爬虫的工作流程都有那几步那?

爬虫基本工作流程

 爬虫基本工作流程

(1)获取初始的URL

做什么事情都是这样,首先要明确自己要爬什么,这个URL地址是用户自己制定的初始爬取的页面,比如你要爬csdn,其网址如下。


  
  1. """ 最简单的爬虫例子,使用的python自带的库,不用安装新库"""
  2. import urllib.request
  3. response=urllib.request.urlopen( "https://blog.csdn.net/") #url就是括住的这些东西
  4. print(html)

 (2)爬取对应URL地址的网页时,获取新的URL地址。

   上面的代码里面只爬了一个网页,我们可以把所有待爬取的URL放到一个数组或列表里面,然后就可以不断的爬取了。

(3)将新的URL地址放入URL队列里面。

(4)从URL队列中读取新的URL,并爬取该网页,同时从新的网页中获取新的URL地址,重复上述的爬取过程

有点懵对吗,我解释一下,一个网页是由特别多东西组成的,URL也是其中之一,也可以是我们爬取的内容,我们爬网页时也可以把网页内的URL作为我们下一次要爬取的内容。

(5)设置结束的条件

如果没有设置停止条件,爬虫会一直爬取下去,直到无法获取新的URL地址才会自动停止。设置了停止条件后,爬虫将会在满足停止条件是结束爬取。

结尾

下次聊一下网络爬虫的分类和网络爬虫的基本原理,知识的学习是一个过程,把握一个东西不在于你见过,而在于你做过。

 

 

 

 

 

 

 

 

 


转载:https://blog.csdn.net/qq_45049500/article/details/117409068
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场