python3爬虫-通过selenium登陆拉钩,爬取职位信息
from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.common.by import By
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.chrome.options import Options
from selenium.webdriver import ActionChains
import time
import json
import os LG_URL_Login = "https://passport.lagou.com/login/login.html"
cookies_path = "./cookies.json" class MyException(Exception):
def __init__(self, status, msg):
self.status = status
self.msg = msg class LaGou:
def __init__(self):
self.login_status = False
self.browser = None
self.__init_browser() def __init_browser(self):
'''初始化浏览器配置'''
options = Options()
options.add_experimental_option('excludeSwitches', ['enable-automation'])
options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2})
self.browser = webdriver.Chrome(options=options)
self.browser.maximize_window()
self.browser.implicitly_wait(3)
self.wait = WebDriverWait(self.browser, 10)
self.ac = ActionChains(self.browser)
self.browser.get(LG_URL_Login) def __choose_login_mode(self):
'''通过用户名,密码去登陆'''
# 虽然默认是用户名密码登陆去,确保无误,还是自己点击一下
self.wait.until(EC.presence_of_element_located((By.XPATH, "//*[@data-lg-tj-id='1Us0']")))
self.browser.find_element_by_xpath("//*[@data-lg-tj-id='1Us0']").click() def __input_user_pwd(self, username, password):
self.wait.until(EC.presence_of_element_located((By.XPATH, '//input[@placeholder="请输入密码"]')))
self.wait.until(EC.presence_of_element_located((By.XPATH, '//input[@placeholder="请输入常用手机号/邮箱"]')))
if not username:
username = input("请输入常用手机号/邮箱>>:").strip()
if not password:
password = input("请输入密码>>:").strip()
phone_ele = self.browser.find_element_by_xpath('//input[@placeholder="请输入常用手机号/邮箱"]')
pwd_ele = self.browser.find_element_by_xpath('//input[@placeholder="请输入密码"]')
# 输入账号
phone_ele.clear()
phone_ele.send_keys(username)
# 输入密码
pwd_ele.clear()
pwd_ele.send_keys(password) def __chick_submit(self):
self.wait.until(EC.presence_of_element_located((By.XPATH, "//*[@data-lg-tj-id='1j90']")))
self.browser.find_element_by_xpath("//*[@data-lg-tj-id='1j90']").click() def __judge_login_successful(self):
'''判断是否登陆成功'''
# 判断class属性 user_dropdown
try:
self.browser.find_element_by_xpath("//*[@class='user_dropdown']")
return True
except NoSuchElementException:
return False def __pull_down_page(self):
'''首先拉钩它是没有懒加载的,所以我们只需要下拉一次就好了,所以while循环可以注释掉'''
height = self.browser.execute_script("return document.body.scrollHeight;")
js = "window.scrollTo(0, {});".format(height)
self.browser.execute_script(js)
return self.browser.page_source
# while True:
# now_height = self.browser.execute_script("return document.body.scrollHeight;")
# if height == now_height:
# return self.browser.page_source
# js = "window.scrollTo({}, {});".format(height, now_height)
# self.browser.execute_script(js)
# height = now_height def __judge_ele_exist_by_xpath(self, xpath):
'''通过xpath,判断是否存在这个元素'''
try:
self.browser.find_element_by_xpath(xpath)
return True
except NoSuchElementException:
return False def __click_next_page(self):
'''点击下一页'''
self.wait.until(EC.presence_of_element_located((By.XPATH, "//span[@class='pager_next ']")))
self.browser.find_element_by_xpath("//span[@class='pager_next ']").click() def __search_job(self, job_name):
'''输入查询的job信息''' # 首先在搜索职位之前呢,会弹回一个框框,默认选择全国站,
# 之所以会有这个框框,那是因为你不是在登陆状态下访问这个url,如果是登陆的,那么不会出现
try:
self.browser.find_element_by_link_text("全国站").click()
except NoSuchElementException:
pass # 搜索职位
try:
# self.wait.until(EC.presence_of_element_located((By.XPATH, "//*[@id='search_input']")))
search_ele = self.browser.find_element_by_xpath("//*[@id='search_input']")
except NoSuchElementException:
search_ele = self.browser.find_element_by_xpath("//*[@id='keyword']")
search_ele.click()
search_ele.clear()
search_ele.send_keys(job_name, Keys.ENTER) def __del__(self):
# 10秒之后,关闭一些资源
self.browser.close() def login(self, username: str = None, password: str = None, load_cookies: bool = True): if load_cookies and os.path.exists(cookies_path):
# 使用保存再文件中的cookies去访问页面
with open(cookies_path, "r", encoding="utf-8") as f:
cookies = json.loads(f.read()) # 将cookies添加进去
for cookie in cookies:
self.browser.add_cookie(cookie) # 访问登陆页面,如果是登陆页面表示cookie失效了,cookies没有的失效的情况就是重定向到首页
self.browser.get(LG_URL_Login)
if self.__judge_login_successful():
print("登陆成功....")
return True
else:
print("cookies已经失效....")
# 删除刚刚添加的cookies
self.browser.delete_all_cookies()
self.browser.refresh()
self.__choose_login_mode()
self.__input_user_pwd(username, password)
self.__chick_submit() # 判断是否有极验验证码
# 如果你多试几次,你会发现某次登陆不需要滑动验证码,所以说我们就利用这个,虽然并没有完全解决破解,但是目的最终还是达到了
while True:
time.sleep(1)
if self.__judge_ele_exist_by_xpath("//div[@class='geetest_panel_box geetest_panelshowslide']"):
self.browser.find_element_by_xpath("//a[@class='geetest_close']").click()
time.sleep(1)
self.browser.find_element_by_xpath("//*[@data-lg-tj-id='1j90']").click()
continue
else:
break if self.__judge_login_successful():
self.login_status = True
# 登陆成功,将cookies保存起来
with open("./cookies.json", "w", encoding="utf-8") as f:
f.write(json.dumps(self.browser.get_cookies()))
print("登陆成功")
return True
else:
print("登陆失败,请检查你的用户名或密码")
return False def get_job_info(self, job_name: str = None, is_filter: bool = False):
'''用于获取到查询的job'''
if not self.login_status:
self.browser.get("https://www.lagou.com/")
if not job_name:
job_name = input("请输入查询job的名称>>:").strip() self.__search_job(job_name) if is_filter:
# 过滤这个功能不忙实现
pass
# 这里开始就是进行翻页操作了,以及对数据的处理
page = 1
while True:
print("爬取工作职位为>>{} 第{}页数据".format(job_name, page))
# 获取到完毕的页面源码,然后进行提取信息的操作
page_source = self.__pull_down_page()
print(page_source)
# 信息提取完毕,进行翻页操纵
if not self.__judge_ele_exist_by_xpath("//span[@class='pager_next ']"):
print("{} 工作职位爬取完毕...".format(job_name))
break
self.__click_next_page()
time.sleep(2) # 点击完毕下一页,可能遇到一些反扒措施
if self.browser.current_url == "https://passport.lagou.com/login/login.html":
self.login() page += 1 if __name__ == '__main__':
lagou = LaGou() username = ""
password = ""
lagou.login()
保存的cookies只能适用于本次浏览器访问,你关闭浏览器后,再使用cookies登陆,会显示失效。
但我手动登陆拉钩,关闭浏览器。再次访问还是能够访问到我自己的信息。cookies是没有失效的,那估计就是我设置cookies那里有问题吧。
python3爬虫-通过selenium登陆拉钩,爬取职位信息的更多相关文章
- 利用python3 爬虫 定制版妹子图mzitu爬取
在刚开始学爬虫的时候,用来练手的基础爬虫就是爬取各种妹子图片,前几天同时说了这个,便准备随便写一个...最后发现真是三天不练..什么都记不住了!!所以花了政治一天重新写了一个爬虫程序,并且支持按照时间 ...
- 【Python3 爬虫】06_robots.txt查看网站爬取限制情况
大多数网站都会定义robots.txt文件来限制爬虫爬去信息,我们在爬去网站之前可以使用robots.txt来查看的相关限制信息 例如: 我们以[CSDN博客]的限制信息为例子 在浏览器输入:http ...
- python3爬虫-通过requests获取拉钩职位信息
import requests, json, time, tablib def send_ajax_request(data: dict): try: ajax_response = session. ...
- 爬虫之Selenium 动态渲染页面爬取
Selenim 是一个自动化测试工具,可以利用它驱动浏览器执行特定的动作,如点击.下拉等操作,同时可以获取浏览器当前呈现的页面的源代码,做到可见及可爬 1.使用流程 1)声明浏览器对象 Seleniu ...
- selenium 模拟登陆豆瓣,爬取武林外传的短评
selenium 模拟登陆豆瓣,爬去武林外传的短评: 在最开始写爬虫的时候,抓取豆瓣评论,我们从F12里面是可以直接发现接口的,但是最近豆瓣更新,数据是JS异步加载的,所以没有找到合适的方法爬去,于是 ...
- Python爬虫之selenium爬虫,模拟浏览器爬取天猫信息
由于工作需要,需要提取到天猫400个指定商品页面中指定的信息,于是有了这个爬虫.这是一个使用 selenium 爬取天猫商品信息的爬虫,虽然功能单一,但是也算是 selenium 爬虫的基本用法了. ...
- 使用selenium+phantomJS实现网页爬取
有些网站反爬虫技术设计的非常好,很难采用WebClient等技术进行网页信息爬取,这时可以考虑采用selenium+phantomJS模拟浏览器(其实是真实的浏览器)的方式进行信息爬取.之前一直使用的 ...
- scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250
scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250 前言 经过上一篇教程我们已经大致了解了Scrapy的基本情况,并写了一个简单的小demo.这次我会以爬取豆瓣电影TOP250为例进一步为大 ...
- 爬虫系列4:Requests+Xpath 爬取动态数据
爬虫系列4:Requests+Xpath 爬取动态数据 [抓取]:参考前文 爬虫系列1:https://www.cnblogs.com/yizhiamumu/p/9451093.html [分页]:参 ...
随机推荐
- Linux 安装MySQL-python
vi ~/.bash_profile PATH="/usr/local/mysql/bin:${PATH}" export PATH export DYLD_LIBRARY_PAT ...
- Android组件系列----Activity的生命周期
[声明] 欢迎转载,但请保留文章原始出处→_→ 生命壹号:http://www.cnblogs.com/smyhvae/ 文章来源:http://www.cnblogs.com/smyhvae/p/3 ...
- Two tomcat 冲突
一.一般修改 路径: /opt/apache-tomcat/conf/server.xml 1.第一个tomcat使用默认配置 2.第二个tomcat一般配置 二.特殊修改 1.第二个tomcat特殊 ...
- Android笔记:解决 Your project contains error(s),please fix them before running your application问题
解决 Your project contains error(s),please fix them before running your application问题 貌似好多人都有遇到这问题,而且网 ...
- Mysql不改默认侦听回环地址而ssh通道连接的办法
Mysql不改默认侦听回环地址而ssh通道连接的办法 文:铁乐与猫 比较新版的mysql默认侦听的网卡地址是本地回环地址:127.0.0.1: 比如你在/etc/mysql/my.cnf配置文件中往往 ...
- Bootstrap后台管理框架
B-JUI http://www.xknaan.com/ B-JUI 前端框架,基于Bootstrap的Jquery UI框架,核心思想脱胎于DWZ(j-ui). BJUI_SSM_DEMO 基于 ...
- 生成器-yield初接触
什么是生成器? 生成器的实质就是迭代器 在python中有三种方式来获取生成器 1. 通过生成器函数 2. 通过各种推导式实现生成器 3. 通过数据的转换也可以获取生成器 将函数中的return换成y ...
- PHP设计模式系列 - 单例
单例模式 通过提供自身共享实例的访问,单例设计模式用于限制特定对象只能被创建一次. 使用场景 例如数据库实例,一般都会走单例模式. 单例模式可以减少类的实例化 代码:来源InitPHP框架,先检测类有 ...
- Git操作(提高篇)
Git操作(提高篇) 分支管理 分支就是科幻电影里面的平行宇宙,当你正在电脑前努力学习Git的时候,另一个你正在另一个平行宇宙里努力学习SVN. 假设你准备开发一个新功能,但是需要两周才能完成,第一周 ...
- @objc vs @objc dynamic官方解释
Some Objective-C APIs—like target-action—accept method or property names as parameters, then use tho ...