003 爬虫持久化的三个不同数据库的python代码
MongoDB
import pymongo # 1、连接MongoDB服务
mongo_py = pymongo.MongoClient()
print(mongo_py) # 2、库和表的名字;有时间会自动建库建表
# 数据库
db = mongo_py['test2'] # 表、集合
collection = db['stu']
# 或
# collection = mongo_py.test2.stu one = {'name': '张三', 'age': 15}
two_many = [{'name': '张四', 'age': 25},
{'name': '张五', 'age': 12},
{'name': '张六', 'age': 17}] # 3、插入数据
collection.insert(one)
collection.insert_many(two_many) # 4、删除数据
collection.delete_many({'name': "张四"}) # 5、更改数据
collection.update({'name': '张三'}, {"name": '小张'}) # 6、查询数据
result = collection.find({'age': 17})
print(result) # 关闭数据库
mongo_py.close()
MongoDB的增删改查
redis
import redis
client = redis.Redis()
# print(client)
# 2、设置key
key = 'pyone'
key2 = 'py4'
# 3、string增加
result = client.set(key, '')
result = client.set(key2, '')
print(result)
# 删除
result = client.delete(key)
# 修改
result = client.set(key2, '')
# 查看
result = client.get(key2)
print(str(result))
redis的代码
MySQL
import pymysql # 1、 连接数据库
conn = pymysql.Connect(
host='127.0.0.1',
db='grade',
user='root',
password=''
)
print(conn)
# 打开游标对象
cur = conn.cursor()
# 2、增加数据
insert_sub = 'insert into student values("2000000", "新增", 1, "理学院", " ")'
cur.execute(insert_sub)
# 提交事务
conn.commit()
# 3、删除数据
delete_sub = 'delete from student where sid="2000000"'
cur.execute(delete_sub)
conn.commit() # 需要提交
# 4、修改数据库
update_sub = 'update student set name="新增1" where sid="2000000"'
cur.execute(update_sub)
conn.commit()
# 5、查看数据
show_data = 'select * from student where name="新增1"'
cur.execute(show_data)
data = cur.fetchall()
print(data) # 关闭数据 cur.close()
conn.close()
mysql代码
003 爬虫持久化的三个不同数据库的python代码的更多相关文章
- iOS开发中的4种数据持久化方式【二、数据库 SQLite3、Core Data 的运用】
在上文,我们介绍了ios开发中的其中2种数据持久化方式:属性列表.归档解档.本节将继续介绍另外2种iOS持久化数据的方法:数据库 SQLite3.Core Data 的运 ...
- Python爬虫学习:三、爬虫的基本操作流程
本文是博主原创随笔,转载时请注明出处Maple2cat|Python爬虫学习:三.爬虫的基本操作与流程 一般我们使用Python爬虫都是希望实现一套完整的功能,如下: 1.爬虫目标数据.信息: 2.将 ...
- 『练手』003 Laura.SqlForever如何扩展 兼容更多数据库引擎
003 Laura.SqlForever如何扩展 兼容更多数据库引擎 数据库引擎插件 在 界面上的体现 导航窗体 的 工具栏 中的 引擎下拉列表 导航窗体 的 树形控件 中的 引擎主节 ...
- 第三百七十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目
第三百七十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目 scrapyd模块是专门用于部署scrapy项目的,可以部署和管理scrapy项目 下载地址:h ...
- 第三百六十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)基本的索引和文档CRUD操作、增、删、改、查
第三百六十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)基本的索引和文档CRUD操作.增.删.改.查 elasticsearch(搜索引擎)基本的索引 ...
- 第三百四十八节,Python分布式爬虫打造搜索引擎Scrapy精讲—通过自定义中间件全局随机更换代理IP
第三百四十八节,Python分布式爬虫打造搜索引擎Scrapy精讲—通过自定义中间件全局随机更换代理IP 设置代理ip只需要,自定义一个中间件,重写process_request方法, request ...
- Rhythmk 学习 Hibernate 02 - Hibernate 之 瞬时状态 离线状态 持久化状态 三状态
by:rhythmk.cnblogs.com 1.Hibernate 三种状态: 1.1.三种定义(个人理解,不一定准确): 瞬时状态(transient): 不被session接管,且不存在 ...
- zTree市县实现三个梯级数据库映射
zTree市县实现三个梯级数据库映射 Province.hbm.xml: <?xml version="1.0" encoding="UTF-8"? &g ...
- scrapy爬虫学习系列三:scrapy部署到scrapyhub上
系列文章列表: scrapy爬虫学习系列一:scrapy爬虫环境的准备: http://www.cnblogs.com/zhaojiedi1992/p/zhaojiedi_python_00 ...
随机推荐
- Java的基本类型和包装类型
测试的JDK版本:java version "1.7.0_79".Java的9中基本类型:void.char.boolean.byte.short.int.long.float.d ...
- 类Date
概述: java.util.Date类 表示特定的瞬间,精确到毫秒.毫秒就是千分之一秒.继续查阅API,发现Date拥有多个构造函数,只是部分已经过时,但是其中有未过时的构造函数可以把毫秒值转成日期对 ...
- svg-sprite使用
chainWebpack(config) { config.module .rule('svg') .exclude.add(path.resolve(__dirname,'src/assets/ic ...
- linux上面sqlserver数据库的操作
sqlserver2017可以安装到linux也不是什么新鲜事, centos安装好sqlserver后有一写操作 systemctl status mssql-server:查看sqlserver的 ...
- python高级编程笔记一 正则表达式
事例
- 2019春招面试高频题(Java版),持续更新(答案来自互联网)
第一模块--并发与多线程 Java多线程方法: 实现Runnable接口, 继承thread类, 使用线程池 操作系统层面的进程与线程(对JAVA多线程和高并发有了解吗?) 计算机资源=存储资源+计算 ...
- 关于空想X
只是一个ID而已,我才不会告诉你这是一艘法国驱逐舰 想去打CTF,但是什么也不会. 博主人很懒,估计也不会更几篇博客,嘿嘿嘿. 最近在学PYTHON,欢迎交流.
- 洛谷P3719 REXP 题解
题目 一道考验递归的题目,在面对这种字符串处理的题时,还是应该用递归这种比较好看懂而且比较简单写的算法. \(code\) ```c++ // luogu-judger-enable-o2 inclu ...
- react native 封装TextInput组件
上一篇 react-native文章提到了TextInput组件对安卓的适配问题,因此对该组件进行封装很有必要. 文章地址 react native定报预披项目知识点总结 TextInput介绍 官 ...
- 树莓派wiringPi,BCM,BOARD编码对应管脚
wiringPi,BCM,BOARD编码 由于上课需要, 嵌入式学习从树莓派开始 树莓派中执行: $> gpio readall 即可得到关于树莓派管脚的各种信息 上面的图可能不是特别清楚, 可 ...