代码:

import re

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
from pyquery import PyQuery as pq
from bs4 import BeautifulSoup
from pymongo import MongoClient
from pymongo.errors import PyMongoError url = 'http://www.taobao.com'
KEYWORD = '美食' # monogdb配置信息
MONGO_HOST = "localhost"
MONGO_DATABASE = "taobao"
MONGO_TABLE = "meishi"
client = MongoClient(host=MONGO_HOST)
db = client[MONGO_DATABASE] # PhantomJS 命令行相关配置
# 参见 http://phantomjs.org/api/command-line.html
SERVICE_ARGS = ['--disk-cache=true', '--load-images=false'] # driver = webdriver.Chrome() # 有界面
driver = webdriver.PhantomJS(service_args=SERVICE_ARGS) # 无界面
delay = 10
wait = WebDriverWait(driver, delay)
# print('windows size', driver.get_window_size())
# PhantomJs()的浏览器窗口很小,宽高只有400 * 300
driver.maximize_window() # 窗口最大化 # 对于PhantomJS来说设置窗口大小很关键,如果不设置,经常会出现问题
# driver.set_window_size(1920, 1080) # 设置浏览器窗口大小 # 模拟在淘宝网页中输入关键字搜索
def search():
print("准备搜索 %s" % KEYWORD)
try:
driver.get(url)
input_box = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, "input#q"))
)
search_btn = wait.until(EC.element_to_be_clickable(
(By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button')))
input_box.send_keys(KEYWORD)
search_btn.click()
total_page_str = wait.until(
EC.presence_of_element_located(
(By.CSS_SELECTOR, 'div.total'))).text
total_page_num = int(re.search("(\d+)", total_page_str).group(1))
item_list = get_goods_by_beautifulsoup()
save_to_mongodb(item_list)
return total_page_num
except TimeoutError:
print("搜索%s超时", KEYWORD)
print("重新尝试搜索: %s", KEYWORD)
search() # 根据页码获取指定页数据,并将其保存到数据库中
def get_page(page_num):
print("正在获取第%d页数据" % page_num)
try:
page_num_box = wait.until(
EC.presence_of_element_located(
(By.CSS_SELECTOR, "div.form > input")))
ok_btn = wait.until(EC.element_to_be_clickable(
(By.CSS_SELECTOR, 'div.form > span.btn.J_Submit')))
page_num_box.clear()
page_num_box.send_keys(page_num)
ok_btn.click()
wait.until(
EC.text_to_be_present_in_element(
(By.CSS_SELECTOR,
'li.item.active > span.num'),
str(page_num)))
item_list = get_goods_by_beautifulsoup()
save_to_mongodb(item_list)
except TimeoutException:
print("请求第%d页失败" % page_num)
print("尝试重新获取第%d页" % page_num)
return get_page(page_num) def get_goods_by_pyquery():
'''
通过pyquery库解析数据
获取商品的图片url、价格、标题、成交量、店铺名称、店铺位置
'''
wait.until(EC.presence_of_element_located(
(By.CSS_SELECTOR, "#mainsrp-itemlist .items .item")))
html = driver.page_source doc = pq(html)
items = list(doc('#mainsrp-itemlist .items .item').items())
for item in items:
yield {
# 不要用src属性,获取的图片地址很多是.gif图片,而非真实商品图片,
'image': 'http://' + item.find('.J_ItemPic.img').attr('data-src'),
'price': item.find('.price').text(),
'title': item.find('.row > .J_ClickStat').text().strip(),
'deal_cnt': item.find('.deal-cnt').text()[:-3],
'shop': item.find('.shop').text(),
'location': item.find('.location').text(),
} # 通过bs4解析数据
def get_goods_by_beautifulsoup():
'''
通过bs4库解析数据
获取商品的图片url、价格、标题、成交量、店铺名称、店铺位置
'''
wait.until(EC.presence_of_element_located(
(By.CSS_SELECTOR, "#mainsrp-itemlist .items .item")))
html = driver.page_source soup = BeautifulSoup(html, 'lxml')
items = soup.select('#mainsrp-itemlist .items .item')
for item in items:
yield {
'image': 'http:' + item.select('img.J_ItemPic.img')[0]['data-src'],
'price': item.select('div.price.g_price.g_price-highlight')[0].get_text(strip=True),
'title': item.select('div.row.row-2.title > a.J_ClickStat')[0].get_text(strip=True),
'deal_cnt': item.select('div.deal-cnt')[0].text[:-3],
'shop': item.select('div.shop > a')[0].get_text(strip=True),
'location': item.select('div.location')[0].text,
} def save_to_mongodb(item_list):
for item in item_list:
try:
db[MONGO_TABLE].insert(item) # insert支持插入多条数据
print("mongodb插入数据成功:", item)
except PyMongoError as e:
print("mongodb插入数据失败:", item, e) # 获取淘宝美食的图片url、价格、标题、成交量、店铺名称、店铺位置并将结果保存在mongodb数据库中
if __name__ == '__main__':
try:
total_pages = search()
for page_num in range(2, total_pages + 1):
get_page(page_num)
except Exception as e:
print("出错了", e)
finally: # 确保 浏览器能正常关闭
driver.close()

备注:

PhantomJS无界面浏览器打开的窗口默认大小400*300, 往往不能将网页加载完全,会给提取数据造成很大的困难,因此需要指定窗口大小。

可以使用 maximize_window() 最大化窗口或者set_window_size()设置指定大小

可能会出现的异常:

raise TimeoutException(message, screen, stacktrace)
selenium.common.exceptions.TimeoutException: Message:
Screenshot: available via screen

使用Selenium模拟浏览器抓取淘宝商品美食信息的更多相关文章

  1. 3.使用Selenium模拟浏览器抓取淘宝商品美食信息

    # 使用selenium+phantomJS模拟浏览器爬取淘宝商品信息 # 思路: # 第一步:利用selenium驱动浏览器,搜索商品信息,得到商品列表 # 第二步:分析商品页数,驱动浏览器翻页,并 ...

  2. Python爬虫学习==>第十二章:使用 Selenium 模拟浏览器抓取淘宝商品美食信息

    学习目的: selenium目前版本已经到了3代目,你想加薪,就跟面试官扯这个,你赢了,工资就到位了,加上一个脚本的应用,结局你懂的 正式步骤 需求背景:抓取淘宝美食 Step1:流程分析 搜索关键字 ...

  3. 16-使用Selenium模拟浏览器抓取淘宝商品美食信息

    淘宝由于含有很多请求参数和加密参数,如果直接分析ajax会非常繁琐,selenium自动化测试工具可以驱动浏览器自动完成一些操作,如模拟点击.输入.下拉等,这样我们只需要关心操作而不需要关心后台发生了 ...

  4. 爬虫实战--使用Selenium模拟浏览器抓取淘宝商品美食信息

    from selenium import webdriver from selenium.webdriver.common.by import By from selenium.common.exce ...

  5. 使用selenium模拟浏览器抓取淘宝信息

    通过Selenium模拟浏览器抓取淘宝商品美食信息,并存储到MongoDB数据库中. from selenium import webdriver from selenium.common.excep ...

  6. Selenium模拟浏览器抓取淘宝美食信息

    前言: 无意中在网上发现了静觅大神(崔老师),又无意中发现自己硬盘里有静觅大神录制的视频,于是乎看了其中一个,可以说是非常牛逼了,让我这个用urllib,requests用了那么久的小白,体会到sel ...

  7. Selenium+Chrome/phantomJS模拟浏览器爬取淘宝商品信息

    #使用selenium+Carome/phantomJS模拟浏览器爬取淘宝商品信息 # 思路: # 第一步:利用selenium驱动浏览器,搜索商品信息,得到商品列表 # 第二步:分析商品页数,驱动浏 ...

  8. 关于爬虫的日常复习(10)—— 实战:使用selenium模拟浏览器爬取淘宝美食

  9. Python开发爬虫之动态网页抓取篇:爬取博客评论数据——通过Selenium模拟浏览器抓取

    区别于上篇动态网页抓取,这里介绍另一种方法,即使用浏览器渲染引擎.直接用浏览器在显示网页时解析 HTML.应用 CSS 样式并执行 JavaScript 的语句. 这个方法在爬虫过程中会打开一个浏览器 ...

随机推荐

  1. 简单矩阵快速幂(HDU Tr A 1575)

    题目中所给的方阵就是一个矩阵,而就是只要将题目所给矩阵不断进行相乘即可,本题中我采用的是直接重载运算符*,使矩阵每一个都进行运算,可以简化为只对对角线上的元素进行运算.最后所得结果就只需将最终的矩阵上 ...

  2. 斐波那契数列的生成 %1e8 后的结果

    方法一  用数组开,一般开到1e7,1e8 左右的数组就是极限了   对时间也是挑战 #include<bits/stdc++.h> using namespace std; ; int ...

  3. 【maven】maven源码打包

    1.打包时附加外部Jar包 <!--编译+外部 Jar打包-->          <plugin>            <artifactId>maven-co ...

  4. datetime学习

    四.datetime类 (一).datetime类的数据构成 datetime类其实是可以看做是date类和time类的合体,其大部分的方法和属性都继承于这二个类,相关的操作方法请参阅,本文上面关于二 ...

  5. 初学者须知 常见的HTML5开发工具有哪些

    HTML5被看做是Web前端开发的最佳编程语言,具有多设备.跨平台.即时更新等优势.更重要的是HTML5入门简单,就业前景广.薪资福利高,这促使越来越多的人转行学习HTML5.学习要一步一个脚印,今天 ...

  6. How to scale Complex Event Processing (CEP)/ Streaming SQL Systems?

    转自:https://iwringer.wordpress.com/2012/05/18/how-to-scale-complex-event-processing-cep-systems/ What ...

  7. skipper backend 负载均衡配置

    skipper 对于后端是支持负载均衡处理的,支持官方文档并没有提供,实际使用中,这个还是比较重要的 同时支持健康检查. 格式 hello_lb_group: Path("/foo" ...

  8. C#使用Xamarin开发Android应用程序 -- 系列文章

    Xamarin开发Android应用程序 利用Xamaria构建Android应用-公交发车信息屏 Xamarin版的C# SVG路径解析器 C#使用Xamarin开发可移植移动应用(1.入门与Xam ...

  9. 使用Jenkins 安装和自动化部署项目

    安装 jenkins 安装方法可以使用war 安装 或者服务安装.我这里使用  rpm 安装 第一步: 我们使用的 centos  ,选着这个,直接 下载传到服务器上.或者 复制下载链接 到 服务器上 ...

  10. STM32的SPI2操作Flash

    关于STM32F107的SPI标志 SPI_I2S_FLAG_BSY和SPI_I2S_FLAG_TXE的疑问  http://www.openedv.com/posts/list/23579.htm ...