Python之路(二)】的更多相关文章

一, $.ajax,这个是JQuery对ajax封装的最基础步,通过使用这个函数可以完成异步通讯的所有功能.也就是说什么情况下我们都可以通过此方法进行异步刷新的操作.但是它的参数较多,有的时候可能会麻烦一些.看一下常用的参数: var configObj = { method   //数据的提交方式:get和post url   //数据的提交路劲 async   //是否支持异步刷新,默认是true data    //需要提交的数据 dataType   //服务器返回数据的类型,例如xml…
URL        - 两个    Views        - 请求的其他信息        from django.core.handlers.wsgi import WSGIRequest        request.environ        request.environ['HTTP_USER_AGENT']        - 装饰器            FBV:                def auth(func):                    def inn…
.pyc是个什么鬼? 1. Python是一门解释型语言? 我初学Python时,听到的关于Python的第一句话就是,Python是一门解释性语言,我就这样一直相信下去,直到发现了*.pyc文件的存在.如果是解释型语言,那么生成的*.pyc文件是什么呢?c应该是compiled的缩写才对啊! 为了防止其他学习Python的人也被这句话误解,那么我们就在文中来澄清下这个问题,并且把一些基础概念给理清. 2. 解释型语言和编译型语言 计算机是不能够识别高级语言的,所以当我们运行一个高级语言程序的时…
collections提供了一些比较方便的方法,使用时需要先导入模块 导入模块: import collections 1. 计数器Counter 统计参数中出现的次数,以字典的方式返回结果,参数可以是字符串,列表,元祖等. 简单使用: import collections collections.Counter a = collections.Counter('aadfadfadfdfadfadfad') print(a) #输出结果为: Counter({'a': 7, 'd': 7, 'f…
说一个收获最大的,就是这个关闭流对象 之前写java读取文件的时候,最后往往要关闭流对象,以前我一直不明白,为什么,我不使用.close()方法,文件也可以读取成功,总感觉没有什么意义 原来是因为,这个.close()方法,不是给java文件,或者python文件执行的,因为关于文件对象的操作,都是由操作系统去完成的 这个打开,read,和close都是告诉操作系统要执行,至于这个close()是告诉操作系统,说我的文件执行完了,可以回收资源了. 当然你不写关闭,对读写都没有什么影响,但是,可能…
备注:本套笔记内容来源于互联网,只做学习使用,如有侵权请联系本笔记作者. 资料内容 Python之路(一)——Python 初识 Python之路(二)——基础语法 Python之路(三)——函数 Python之路(四)——Python 三器(迭代器.生成器.装饰器) Python之路(五)——包与模块 Python之路(六)——Python 常用模块 Python之路(七)——Python OOP(基础篇) Python之路(八)——Python OOP(进阶篇) Python之路(九)——P…
Python之路[第十二篇]:JavaScrpt -暂无内容-待更新…
本节内容 进程.与线程区别 python GIL全局解释器锁 线程 语法 join 线程锁之Lock\Rlock\信号量 将线程变为守护进程 Event事件 queue队列 生产者消费者模型 Queue队列 开发一个线程池 进程 语法 进程间通讯 进程池 一.进程与线程 1.线程 线程是操作系统能够进行运算调度的最小单位.它被包含在进程之中,是进程中的实际运作单位.一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务 A thread is an ex…
目录 python python_基础总结1 python由来 字符编码 注释 pyc文件 python变量 导入模块 获取用户输入 流程控制if while python 基础2 编码转换 pycharm 配置 运算符 基本数据类型int str list tupple dict for循环 enumerate序列方法 range和xrange python基础3 集合 三元运算 深浅拷贝 函数 python基础4 函数参数引用 python内置函数 filter map open处理文件 p…
Python之路[第十九篇]:爬虫   网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本.另外一些不常使用的名字还有蚂蚁.自动索引.模拟程序或者蠕虫. Requests Python标准库中提供了:urllib.urllib2.httplib等模块以供Http请求,但是,它的 API 太渣了.它是为另一个时代.另一个互联网所创建的.它需要巨量的工作,甚至包括各种方法覆盖,来完成最简单的任务. impor…