序列化的目的

1、以某种存储形式使自定义对象持久化
2、将对象从一个地方传递到另一个地方。
3、使程序更具维护性。
序列化--转向一个字符串数据类型
序列--及时字符串 何处用到:
  数据存储
  网络上传输的时候 从数据类型到字符串的过程,叫做序列化
从字符串到数据类型的过程,叫做反序列化 分类
json *****
pickle ****
shelve *** 特点
json(可以进行序列化的有:数字,字符串,列表,字典,元组(将元组转成序列表进行序列化))
通用的序列化格式
只有很少的一部分数据类型能够通过json转化成字符串
pickle
所有Python中的数据类型都可以转化成字符串形式
pickle序列化的内容只有Python能够理解
且反序列化依赖代码
shelve
序列化句柄
使用句柄直接操作,非常方便

jsonhe和pickle的选择

json是一种所有的语言都可以识别的数据结构。
如果将一个字典或者序列化成了一个json存在文件里,那么java代码或者js代码也可以拿来用。
但是如果我们用pickle进行序列化,其他语言就不能读懂这是什么了~
所以,如果序列化的内容是列表或者字典,非常推荐使用json模块
但如果出于某种原因你不得不序列化其他的数据类型,而未来还会用python对这个数据进行反序列化的话,那么就可以使用pickle
 

1.Json模块

提供了四个功能:dumps(序列化方法)、dump、loads(反序列方法)、load
对于json来说,可以分步的dump和load
dumps、loads:对内存中的数据进行操作,数据操作完成后还在内存中
dic = {'k1':'v1'}
# dic = (1,2,3)
print(type(dic),dic) #<class 'dict'> {'k1': 'v1'}
import json
str_d = json.dumps(dic)
print(type(str_d),str_d) #<class 'str'> {"k1": "v1"}
dic_new = json.loads(str_d)
print(type(dic_new),dic_new) #<class 'dict'> {'k1': 'v1'}
print(dic==dic_new) #True dump、load:是与文件相关的操作
import json
dic = {1:'a',2:'b'}
f = open('fff','w',encoding='utf-8')
json.dump(dic,f) #写入文件
# json.dump(dic,f) #写入文件
f.close() f = open('fff')
res=json.load(f) #从文件读
f.close()
print(type(res),res) import json
dic = {1:'中国',2:'b'}
f = open('fff','w',encoding='utf-8')
# json.dump(dic,f) #写入文件
json.dump(dic,f,ensure_ascii=False) # 写入文件
f.close() f = open('fff',encoding='utf-8')
res=json.load(f) #从文件读
f.close()
print(type(res),res) #分次写入
l = [{'k1':'v1'},{'k2':'v2'},{'k3':'v3'}]
f = open('file','w')
import json
for dic in l:
str_d = json.dumps(dic)
f.write(str_d+'\n')
f.close() #分次读出
f = open('file')
import json
l = []
for line in f:
dic_new = json.loads(line.strip())
l.append(dic_new)
print(l) #[{'k1': 'v1'}, {'k2': 'v2'}, {'k3': 'v3'}]
f.close()

2.pickle模块

pickle序列化之后看不出来有何内容(文件必须以wb或者rb文件打开)
对于pickle来说,可以分步的dump和load
dic = {'k1':'v1','k2':'v2'}
print(type(dic),dic) #<class 'dict'> {'k1': 'v1', 'k2': 'v2'}
import pickle
str_d = pickle.dumps(dic)
print(type(str_d),str_d) #<class 'bytes'> b'\x80\x03}q\x00(X\x02\x00\x00\x00k1q\x01X\x02\x00\x00\x00v1q\x02X\x02\x00\x00\x00k2q\x03X\x02\x00\x00\x00v2q\x04u.
dic_new = pickle.loads(str_d)
print(type(dic_new),dic_new) #<class 'dict'> {'k1': 'v1', 'k2': 'v2'}
print(dic==dic_new) #True import pickle
import time
struct_time1 = time.localtime(1000000000)
struct_time2 = time.localtime(2000000000)
print(struct_time1) #time.struct_time(tm_year=2001, tm_mon=9, tm_mday=9, tm_hour=9, tm_min=46, tm_sec=40, tm_wday=6, tm_yday=252, tm_isdst=0)
print(struct_time2) #time.struct_time(tm_year=2033, tm_mon=5, tm_mday=18, tm_hour=11, tm_min=33, tm_sec=20, tm_wday=2, tm_yday=138, tm_isdst=0)
f = open('pickle_file','wb')
pickle.dump(struct_time1,f) #写入文件
pickle.dump(struct_time2,f) #写入文件
f.close() f = open('pickle_file','rb')
struct_time1_new = pickle.load(f) #读文件
struct_time2_new = pickle.load(f) #读文件
print(struct_time1_new.tm_year) #2001
print(struct_time2_new.tm_year) #2033
f.close() 

3.shelve模块

只提供了一个open方法,用key进行访问,使用起来与字典类似
存文件的方式也是不透明的
import shelve
f = shelve.open('shelve_file')
f['key']={'int':1,'float':0.1,'String':'Sample data'} #直接对文件句柄进行操作就可以直接存入数据
f.close() import shelve
f1 = shelve.open('shelve_file')
context = f1['key'] #取出数据的时候也只需要直接用key获取即可,但是如果key不存则会报错
f1.close()
print(context)

 由于shelve在默认情况下是不会记录待持久化对象的任何修改的,所以在shelve.open()的时候需要修改默认参数,否则对象的修改不会保存

import shelve
f1 = shelve.open('shelve_file')
# print(f1['key'])
f1['key']['new_value'] = 'this was not here before'
f1.close() f2 = shelve.open('shelve_file',writeback=True)
# print(f2['key'])
f2['key']['new_value'] = 'this was not here before'
print(f2['key'])
f2.close()

  

11-14序列化模块之json、pickle、shelve的更多相关文章

  1. python 序列化及其相关模块(json,pickle,shelve,xml)详解

    什么是序列化对象? 我们把对象(变量)从内存中编程可存储或传输的过程称之为序列化,在python中称为pickle,其他语言称之为serialization ,marshalling ,flatter ...

  2. python序列化及其相关模块(json,pickle,shelve,xml)详解

    什么是序列化对象? 我们把对象(变量)从内存中编程可存储或传输的过程称之为序列化,在python中称为pickle,其他语言称之为serialization ,marshalling ,flatter ...

  3. 常用模块---sys&logging&序列化模块(json&pickle)

    sys 模块 sys.argv 命令行参数List,第一个元素是程序本身路径,通常用来避免io 阻塞 print('欢迎进入') info=sys.argv ': print('login succe ...

  4. 模块 序列化模块:json pickle

    模块:一个模块就是一个包含了Python定义和声明的文件,文件名就是模块名字加上.py的后缀 模块的形象: 内置模块:安装Python解释器的时候一起安装上的 第三方模块(扩展模块):需要自己安装 自 ...

  5. python序列化: json & pickle & shelve 模块

    一.json & pickle & shelve 模块 json,用于字符串 和 python数据类型间进行转换pickle,用于python特有的类型 和 python的数据类型间进 ...

  6. day6_python序列化之 json & pickle & shelve 模块

    一.json & pickle & shelve 模块 json,用于字符串 和 python数据类型间进行转换pickle,用于python特有的类型 和 python的数据类型间进 ...

  7. python 全栈开发,Day25(复习,序列化模块json,pickle,shelve,hashlib模块)

    一.复习 反射 必须会 必须能看懂 必须知道在哪儿用 hasattr getattr setattr delattr内置方法 必须能看懂 能用尽量用__len__ len(obj)的结果依赖于obj. ...

  8. python 常用模块 time random os模块 sys模块 json & pickle shelve模块 xml模块 configparser hashlib subprocess logging re正则

    python 常用模块 time random os模块 sys模块 json & pickle shelve模块 xml模块 configparser hashlib  subprocess ...

  9. 常用模块(random,os,json,pickle,shelve)

    常用模块(random,os,json,pickle,shelve) random import random print(random.random()) # 0-1之间的小数 print(rand ...

随机推荐

  1. docker 在centos7中设置 DOCKER_OPTS

    不同于Ubuntu目录 /etc/default/docker. 在 CentOS7中Docker默认配置的路径在 /usr/lib/systemd/system/docker.service [例如 ...

  2. C# 自定义常用代码段快捷键

    不断更新中... 分享地址:http://pan.baidu.com/s/15oE0X

  3. Redis系列(十二):数据结构SortedSet跳跃表中基本操作命令和源码解析

    1.SkipList Redis的sortedSet数据结构是有序不重复的(索引为唯一的,数据(score)却可以重复), 跳表是redis的一个核心组件,也同时被广泛地运用到了各种缓存地实现当中,它 ...

  4. Tornado之异步非阻塞

    同步模式:同步模式下,只有处理完前一个任务下一个才会执行 class MainHandler(tornado.web.RequestHandler): def get(self): time.slee ...

  5. 使用 Docker 开发 - 使用多阶段构建镜像

    多阶段构建是一个新特性,需要 Docker 17.05 或更高版本的守护进程和客户端.对于那些努力优化 Dockerfiles 并使其易于阅读和维护的人来说,多阶段构建非常有用. 在多阶段构建之前 构 ...

  6. Python优秀开源项目Rich源码解析

    这篇文章对优秀的开源项目Rich的源码进行解析,OMG,盘他.为什么建议阅读源码,有两个原因,第一,单纯学语言很难在实践中灵活应用,通过阅读源码可以看到每个知识点的运用场景,印象会更深,以后写代码的时 ...

  7. 01-springboot整合elasticsearch初识

    1.elasticsearch 1.es简介      Elasticsearch 是一个分布式.高扩展.高实时的搜索与数据分析引擎.它能很方便的使大量数据具有搜索.分析和探索的能力.充分利用Elas ...

  8. SQL注入笔记-updatexml与extractvalue

    0x1介绍 MySQL 5.1.5版本中添加了对XML文档进行查询和修改的函数 EXTRACTVALUE(XML_document, XPath_string); UPDATEXML(XML_docu ...

  9. SQL注入原理及代码分析(二)

    前言 上一篇文章中,对union注入.报错注入.布尔盲注等进行了分析,接下来这篇文章,会对堆叠注入.宽字节注入.cookie注入等进行分析.第一篇文章地址:SQL注入原理及代码分析(一) 如果想要了解 ...

  10. scala 数据结构(三):元组Tuple

    1 元组Tuple-元组的基本使用 基本介绍 元组也是可以理解为一个容器,可以存放各种相同或不同类型的数据. 说的简单点,就是将多个无关的数据封装为一个整体,称为元组, 最多的特点灵活,对数据没有过多 ...