大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章给大家分享的是有关python爬虫中ip代理池如何使用的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
耿马网站制作公司哪家好,找创新互联公司!从网页设计、网站建设、微信开发、APP开发、响应式网站开发等网站项目制作,到程序开发,运营维护。创新互联公司从2013年成立到现在10年的时间,我们拥有了丰富的建站经验和运维经验,来保证我们的工作的顺利进行。专注于网站建设就选创新互联公司。
说明
1、利用for循环爬取所有代理IP。查看网页源代码,发现所有的IP和端口都在第二和第三个td下,结合BeautifulSoup可以方便地抓取信息。
2、检查IP的可用程度。IP是否可用,取决于连接代理后2秒内是否可以打开页面。
如果可以,认为IP是可用的,添加到list中备用。
实例
import urllib2 from bs4 import BeautifulSoup import csv def IPspider(numpage): csvfile = file('ips.csv', 'wb') writer = csv.writer(csvfile) url='http://www.xicidaili.com/nn/' user_agent='IP' headers={'User-agent':user_agent} for num in xrange(1,numpage+1): ipurl=url+str(num) print 'Now downloading the '+str(num*100)+' ips' request=urllib2.Request(ipurl,headers=headers) content=urllib2.urlopen(request).read() bs=BeautifulSoup(content,'html.parser') res=bs.find_all('tr') for item in res: try: temp=[] tds=item.find_all('td') temp.append(tds[1].text.encode('utf-8')) temp.append(tds[2].text.encode('utf-8')) writer.writerow(temp) except IndexError: pass #假设爬取前十页所有的IP和端口 IPspider(10)
感谢各位的阅读!关于“python爬虫中ip代理池如何使用”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!