飞道的博客

超强反爬虫方案!Requests 什么的通通爬不了

403人阅读  评论(0)

一个非常强的反爬虫方案 —— 禁用所有 HTTP 1.x 的请求!

现在很多爬虫库其实对 HTTP/2.0 支持得不好,比如大名鼎鼎的 Python 库 —— requests,到现在为止还只支持 HTTP/1.1,啥时候支持 HTTP/2.0 还不知道。

Scrapy 框架最新版本 2.5.0(2021.04.06 发布)加入了对 HTTP/2.0 的支持,但是官网明确提示,现在是实验性的功能,不推荐用到生产环境,原文如下:

HTTP/2 support in Scrapy is experimental, and not yet recommended for production environments. Future Scrapy versions may introduce related changes without a deprecation period or warning.

插一句,Scrapy 中怎么支持 HTTP/2.0 呢?在 settings.py 里面换一下 Download Handlers 即可:


  
  1. DOWNLOAD_HANDLERS = {
  2.      'https''scrapy.core.downloader.handlers.http2.H2DownloadHandler',
  3. }

当前 Scrapy 的 HTTP/2.0 实现的已知限制包括:

  • 不支持 HTTP/2.0 明文(h2c),因为没有主流浏览器支持未加密的 HTTP/2.0。

  • 没有用于指定最大帧大小大于默认值 16384 的设置,发送更大帧的服务器的连接将失败。

  • 不支持服务器推送。

  • 不支持bytes_received和 headers_received信号。

关于其他的一些库,也不必多说了,对 HTTP/2.0 的支持也不好,目前对 HTTP/2.0 支持得还可以的有 hyper 和 httpx,后者更加简单易用一些。

反爬虫

所以,你想到反爬虫方案了吗?

如果我们禁用所有的 HTTP/1.x 的请求,是不是能通杀掉一大半爬虫?requests 没法用了,Scrapy 除非升级到最新版本才能勉强用个实验性版本,其他的语言也不用多说,也会杀一大部分。

而浏览器对 HTTP/2.0 的支持现在已经很好了,所以不会影响用户浏览网页的体验。

措施

那就让我们来吧!

这个怎么做呢?其实很简单,在 Nginx 里面配置一下就好了,主要就是加这么个判断就行了:


  
  1. if ( $server_protocol ! ~* "HTTP/2.0") {
  2. return 444;
  3. }

就是这么简单,这里 $server_protocol 就是传输协议,其结果目前有三个:HTTP/1.0HTTP/1.1 和 HTTP/2.0,另外判断条件我们使用了 !~* ,意思就是不等于,这里的判断条件就是,如果不是 HTTP/2.0,那就直接返回 444 状态码,444 一般代表 CONNECTION CLOSED WITHOUT RESPONSE,就是不返回任何结果关闭连接。

我的服务是在 Kubernetes 里面运行的,所以要加这个配置还得改下 Nginx Ingress 的配置,不过还好 https://kubernetes.github.io/ingress-nginx/user-guide/nginx-configuration/annotations/ 预留了一个配置叫做 nginx.ingress.kubernetes.io/server-snippet,利用它我们可以自定义 Nginx 的判定逻辑。

官方用法如下:


  
  1. apiVersion: networking.k8s.io/v1beta1
  2. kind: Ingress
  3. metadata:
  4.    annotations:
  5.     nginx.ingress.kubernetes.io/server- snippet: |
  6.         set $agentflag  0;
  7.          if ($http_user_agent ~*  "(Mobile)" ){
  8.           set $agentflag  1;
  9.         }
  10.          if ( $agentflag =  1 ) {
  11.            return  301  https: //m.example.com;
  12.         }

所以这里,我们只需要改成刚才的配置就好了:


  
  1. apiVersion: networking.k8s.io/v1beta1
  2. kind: Ingress
  3. metadata:
  4.    annotations:
  5.     nginx.ingress.kubernetes.io/server- snippet: |
  6.        if ($server_protocol !~*  "HTTP/2.0") {
  7.          return  444;
  8.       }

大功告成!

配置完成了,示例网站是:https://spa16.scrape.center/

我们在浏览器中看下效果:

可以看到所有请求都是走的 HTTP/2.0,页面完全正常加载。

然而,我们使用 requests 来请求一下:


  
  1. import requests
  2. response = requests.get( 'https://spa16.scrape.center/')
  3. print(response.text)

非常欢乐的报错:


  
  1. Traceback (most recent call last):
  2.   ...
  3.      raise RemoteDisconnected( "Remote end closed connection without"
  4. http.client.RemoteDisconnected: Remote end closed connection without response
  5. During handling of the above exception, another exception occurred:
  6. Traceback (most recent call last):
  7.   ...
  8.      raise MaxRetryError(_pool, url, error  or ResponseError(cause))
  9. requests.packages.urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host= 'spa16.scrape.center', port= 443): Max retries exceeded  with url: / (Caused by ProxyError( 'Cannot connect to proxy.', RemoteDisconnected( 'Remote end closed connection without response')))
  10. During handling of the above exception, another exception occurred:
  11. Traceback (most recent call last):
  12.  ...
  13. requests.exceptions.ProxyError: HTTPSConnectionPool(host= 'spa16.scrape.center', port= 443): Max retries exceeded  with url: / (Caused by ProxyError( 'Cannot connect to proxy.', RemoteDisconnected( 'Remote end closed connection without response')))

如果你用 requests,无论如何都不行的,因为它就不支持 HTTP/2.0。

那我们换一个支持 HTTP/2.0 的库呢?比如 httpx,安装方法如下:

pip3 install 'httpx[http2]'

注意,Python 版本需要在 3.6 及以上才能用 httpx。

安装好了之后测试下:


  
  1. import httpx
  2. client = httpx.Client(http2= True)
  3. response = client.get( 'https://spa16.scrape.center/')
  4. print(response.text)

结果如下:

<!DOCTYPE html><html lang=en><head><meta charset=utf-8><meta http-equiv=X-UA-Compatible content="IE=edge"><meta name=viewport content="width=device-width,initial-scale=1"><meta name=referrer content=no-referrer><link rel=icon href=/favicon.ico><title>Scrape | Book</title><link href=/css/chunk-50522e84.e4e1dae6.css rel=prefetch><link href=/css/chunk-f52d396c.4f574d24.css rel=prefetch><link href=/js/chunk-50522e84.6b3e24aa.js rel=prefetch><link href=/js/chunk-f52d396c.f8f41620.js rel=prefetch><link href=/css/app.ea9d802a.css rel=preload as=style><link href=/js/app.b93891e2.js rel=preload as=script><link href=/js/chunk-vendors.a02ff921.js rel=preload as=script><link href=/css/app.ea9d802a.css rel=stylesheet></head><body><noscript><strong>We're sorry but portal doesn't work properly without JavaScript enabled. Please enable it to continue.</strong></noscript><div id=app></div><script src=/js/chunk-vendors.a02ff921.js></script><script src=/js/app.b93891e2.js></script></body></html>

可以看到,HTML 就成功被我们获取到了!这就是 HTTP/2.0 的魔法!

我们如果把 http2 参数设置为 False 呢?


  
  1. import httpx
  2. client = httpx.Client(http2= False)
  3. response = client.get( 'https://spa16.scrape.center/')
  4. print(response.text)

一样很不幸:


  
  1. Traceback (most recent  call  last):
  2.  ...
  3.      raise RemoteProtocolError(msg)
  4. httpcore.RemoteProtocolError:  Server disconnected  without sending a response.
  5. The above  exception was the direct cause  of the  following  exception:
  6.   ...
  7.      raise mapped_exc(message)  from exc
  8. httpx.RemoteProtocolError:  Server disconnected  without sending a response.

所以,这就印证了,只要 HTTP/1.x 通通没法治!可以给 requests 烧香了!

又一个无敌反爬虫诞生了!各大站长们,安排起来吧~

 文章到这里就结束了,感谢你的观看

说实在的,每次在后台看到一些读者的回应都觉得很欣慰,我想把我收藏的一些编程干货贡献给大家,回馈每一个读者,希望能帮到你们。

干货主要有:

① 2000多本Python电子书(主流和经典的书籍应该都有了)

② Python标准库资料(最全中文版)

③ 项目源码(四五十个有趣且经典的练手项目及源码)

④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)

⑤    Python所有知识点汇总(可以弄清楚Python的所有方向和技术)

*如果你用得到的话可以直接拿走,在我的QQ技术交流群里,可以自助拿走,群号是421592457。*


转载:https://blog.csdn.net/aaahtml/article/details/116927815
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场