大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章主要介绍python3怎么实现爬取淘宝美食,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
站在用户的角度思考问题,与客户深入沟通,找到浦城网站设计与浦城网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:网站制作、成都网站设计、企业官网、英文网站、手机端网站、网站推广、域名申请、网页空间、企业邮箱。业务覆盖浦城地区。python的五大特点是什么python的五大特点:1.简单易学,开发程序时,专注的是解决问题,而不是搞明白语言本身。2.面向对象,与其他主要的语言如C++和Java相比, Python以一种非常强大又简单的方式实现面向对象编程。3.可移植性,Python程序无需修改就可以在各种平台上运行。4.解释性,Python语言写的程序不需要编译成二进制代码,可以直接从源代码运行程序。5.开源,Python是 FLOSS(自由/开放源码软件)之一。
环境:
ubuntu16.04
python3.5
python库: selenium, pyquery,pymongo, re
要求:
设置×××面浏览器访问,并将商品列表存入mongoDB数据库.
分析过程暂时略过
代码:
#!/usr/bin/env python # -*- coding:utf-8 -*- """ 1.爬取淘宝美食的流程 - 搜索关键字: 用selenium打开浏览器,模拟输入关键字,并搜索对应的商品列表. - 分析页码并翻页,模拟翻页,查看到所有页面的商品列表. - 分析并提取商品,利用Pyquery分析源码,解析得到商品列表. - 存储到MONGODB数据库,将商品列表信息存储到mongoDB数据库. """ from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC from selenium.common.exceptions import TimeoutException from pyquery import PyQuery as pq import re from anli.mongoconfig import * import pymongo client = pymongo.MongoClient(MONGO_URL) db = client[MONGO_DB] #设置×××面访问 opt = webdriver.FirefoxOptions() opt.set_headless() browser = webdriver.Firefox(options=opt) #等待浏览器加载页面成功. wait = WebDriverWait(browser,10) def search(): try: # 后台打开浏览器 browser.get('https://www.taobao.com') # 用CSS选择器复制搜索框 input = wait.until( EC.presence_of_element_located((By.CSS_SELECTOR, '#q')) ) # 找到搜索按钮. submit = wait.until( # EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm .search-button'))) EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm > div.search-button > button'))) # 输入关键字 input.send_keys('美食') # 点击搜索按钮. submit.click() # 输出总共的页数. total=wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'.total'))) # 调取商品列表的函数. get_products() return total.text except TimeoutException: #超时错误. return search() # 翻页 def next_page(page_number): try: #注意在firefox和chrome浏览器复制出来的元素不太一样. #要传入的页码: 到第几页 input = wait.until( EC.presence_of_element_located((By.CSS_SELECTOR,'input.input:nth-child(2)')) ) #复制确定按钮的元素: submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,'span.btn:nth-child(4)'))) #清除页码 input.clear() #输入当前页码 input.send_keys(page_number) #点击确定按钮. submit.click() #判断当前页码是否是当前数字: 复制高亮页码数. wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR,'span.num'),str(page_number))) get_products() except TimeoutException: next_page(page_number) #解析jquery源码 def get_products(): #商品列表: wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'#mainsrp-itemlist .items .item'))) # 获取网页源码 html = browser.page_source doc = pq(html) items = doc('#mainsrp-itemlist .items .item').items() for item in items: #定义商品列表详细信息的字典 product = { 'title': item.find('.title').text(), 'price': item.find('.price').text(), 'image': item.find('.pic .img').attr('src'), 'shop': item.find('.shop').text(), 'deal': item.find('.deal-cnt').text()[:-3], 'location': item.find('.location').text() } print(product) #将商品列表信息保存到mongoDB数据库. save_to_mongo(product) def save_to_mongo(result): try: if db[MONGO_TABLE].insert(result): print('存储到mongodb成功',result) except Exception: print('存储到mongodb失败',result) def main(): total = search() # 用正则表达式只匹配出数字,并打印数字. total = int(re.compile('(\d+)').search(total).group(1)) print(total) for i in range(2,total + 1): next_page(i) if __name__=='__main__': main() #关闭×××面浏览器. browser.quit() #mongoconfig.py #!/usr/bin/env python # -*- coding:utf-8 -*- MONGO_URL = 'localhost' MONGO_DB = 'taobao' MONGO_TABLE = 'meishi'
实现效果:
注意:
chrome浏览器和firefox浏览器的网页元素不太一样.
以上是“python3怎么实现爬取淘宝美食”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注创新互联行业资讯频道!