大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
今天就跟大家聊聊有关怎么用代码搞定Scrapy随机 User-Agent,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
创新互联建站凭借专业的设计团队扎实的技术支持、优质高效的服务意识和丰厚的资源优势,提供专业的网站策划、网站建设、成都网站设计、网站优化、软件开发、网站改版等服务,在成都十余年的网站建设设计经验,为成都近千家中小型企业策划设计了网站。摘要:爬虫过程中的反爬措施非常重要,其中设置随机 User-Agent 是一项重要的反爬措施,Scrapy 中设置随机 UA 的方式有很多种,有的复杂有的简单,本文就对这些方法进行汇总,提供一种只需要一行代码的设置方式。
最近使用 Scrapy 爬一个网站,遇到了网站反爬的情况,于是开始搜索一些反爬措施,了解到设置随机 UA 来伪装请求头是一种常用的方式,这能够做到一定程度上避免网站直接识别出你是一个爬虫从而封掉你。设置随机 UA 的方法有挺多种,有的需要好多行代码,有的却只需要一行代码就搞定了,接下来就来介绍下。
首先,说一下常规情况不使用 Scrapy 时的用法,比较方便的方法是利用 fake_useragent
包,这个包内置大量的 UA 可以随机替换,这比自己去搜集罗列要方便很多,下面来看一下如何操作。
首先,安装好fake_useragent
包,一行代码搞定:
1pip install fake-useragent
然后,就可以测试了:
1from fake_useragent import UserAgent
2ua = UserAgent()
3for i in range(10):
4 print(ua.random)
这里,使用了 ua.random 方法,可以随机生成各种浏览器的 UA,见下图:
(放大查看)
如果只想要某一个浏览器的,比如 Chrome ,那可以改成 ua.chrome
,再次生成随机 UA 查看一下:
以上就是常规设置随机 UA 的一种方法,非常方便。
下面,我们来介绍在 Scrapy 中设置随机 UA 的几种方法。
先新建一个 Project,命名为 wanojia
,测试的网站选择为:http://httpbin.org/get
。
首先,我们来看一下,如果不添加 UA 会得到什么结果,可以看到显示了scrapy
,这样就暴露了我们的爬虫,很容易被封。
下面,我们添加上 UA 。
第一种方法是和上面程序一样,直接在主程序中设置 UA,然后运行程序,通过下面这句命令可以输出该网站的 UA,见上图箭头处所示,每次请求都会随机生成 UA,这种方法比较简单,但是每个 requests 下的请求都需要设置,不是很方便,既然使用了 Scrapy,它提供了专门设置 UA 的地方,所以接下来我们看一下如何单独设置 UA。
1response.request.headers['User-Agent']
第二种方法,是在 settings.py 文件中手动添加一些 UA,然后通过 random.choise
方法随机调用,即可生成 UA,这种方便比较麻烦的就是需要自己去找 UA,而且增加了代码行数量。
第三种方法,是使用 fake-useragent 包,在 middlewares.py 中间件中改写 process_request() 方法,添加以下几行代码即可。
1from fake_useragent import UserAgent
2class RandomUserAgent(object):
3 def process_request(self, request, spider):
4 ua = UserAgent()
5 request.headers['User-Agent'] = ua.random
然后,我们回到 settings.py
文件中调用自定义的 UserAgent,注意这里要先关闭默认的 UA 设置方法才行。
1DOWNLOADER_MIDDLEWARES = {
2 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
3 'wandoujia.middlewares.RandomUserAgent': 543,
4}
可以看到,我们成功得到了随机 UA。
可以看到,上面几种方法其实都不太方便,代码量也比较多,有没有更简单的设置方法呢?
有的,只需要一行代码就搞定,利用一款名为 scrapy-fake-useragent
的包。
先贴一下该包的官方网址:https://pypi.org/project/scrapy-fake-useragent/,使用方法非常简单,安装好然后使用就行了。
执行下面的命令进行安装,然后在 settings.py 中启用随机 UA 设置命令就可以了,非常简单省事。
1pip install scrapy-fake-useragent
1DOWNLOADER_MIDDLEWARES = {
2 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None, # 关闭默认方法
3 'scrapy_fake_useragent.middleware.RandomUserAgentMiddleware': 400, # 开启
4}
我们输出一下 UA 和网页 Response,可以看到成功输出了结果。
以上就是 Scrapy 中设置随机 UA 的几种方法,推荐最后一种方法,即安装 scrapy-fake-useragent
库,然后在 settings 中添加下面这一行代码即可:
1'scrapy_fake_useragent.middleware.RandomUserAgentMiddleware': 400,
另外,反爬措施除了设置随机 UA 以外,还有一种非常重要的措施是设置随机 IP。
看完上述内容,你们对怎么用代码搞定Scrapy随机 User-Agent有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注创新互联-成都网站建设公司行业资讯频道,感谢大家的支持。