练习一:打出1-100之间的所有偶数 def even_print(): for i in range(1,101): if i % 2 == 0: print (i) even_print() #列表解析式的方式: k = [n for n in range(1,101) if n%2 == 0] print (k) 练习二:设计一个函数,在桌面上创建10个文件,并以数字命名 def text_creation(): path = 'C:/Users/Administrator/Desktop…
python模块介绍- xlwt 创建xls文件(excel) 2013-06-24磁针石 #承接软件自动化实施与培训等gtalk:ouyangchongwu#gmail.comqq 37391319 博客:http://blog.csdn.net/oychw #版权所有,转载刊登请来函联系 # 深圳测试自动化python项目接单群113938272深圳广州软件测试开发6089740 #深圳地摊群 66250781武冈洞口城步新宁乡情群49494279 #自动化测试和python群组: http…
python自带的logging实在是不好用,推荐使用logbook 思路如下: 1.创建path.py文件,获取工程根路径 2.创建log.py文件,在工程根路径下创建日志文件(文件名称按日期命名),并设置log输出等级 3.执行测试用例,调用log文件 具体实现如下: 1.  path.py文件如下:   获取项目的根路径     os.path.abspath(path)       返回path规范化的绝对路径 os.path.dirname(__file__)    获取当前运行脚本的…
以下所有内容翻译至: https://xlsxwriter.readthedocs.io/ #------------------------------------------------------------------------------------------------------------------------------- XlsxWriter 是一个用来创建Excel XLSX 文件的Python 模块. demo: demo 代码: #################…
第三百四十四节,Python分布式爬虫打造搜索引擎Scrapy精讲—craw母版l创建自动爬虫文件—以及 scrapy item loader机制 用命令创建自动爬虫文件 创建爬虫文件是根据scrapy的母版来创建爬虫文件的 scrapy genspider -l  查看scrapy创建爬虫文件可用的母版 Available templates:母版说明 basic     创建基础爬虫文件 crawl    创建自动爬虫文件 csvfeed      创建爬取csv数据爬虫文件 xmlfeed…
在深度学习的训练时,经常会碰到训练的样本数据集和标签数据集是在一个文件夹中,这个时候我们就不得不进行一些数据的预处理和文件的分类,例如将训练(training data)数据集和标签数据集(label data)分别放到不同的文件夹或者将训练数据集按照分类放到类别文件中,这样子的操作是为了我们能方便的读取和处理相关的图片数据.这篇博文主要是讲我在做项目过程碰到的其中一中情况,就是训练样本数据和标签数据在一个主文件夹下的不同文件夹内,这里有两种处理方式供参考. 1. 将文件分别放到不同的文件 利用…
python读取txt批量创建文件 pythonbatchfile 前几天有个小问题, 需要批量建立很多文件夹,, 所以手动写了个小的脚本, 后续可以直接使用 读取目录文件, 然后直接创建相应的文件 基本思路: 就是读取用户输入参数, 获取所在路径以及所要命名的后缀 获取txt所在路径, 得到同级目录 读取txt 的每一行 并计数得到数字 根据同级目录拼接路径, 创建文件(如果存在不覆盖) 输出结果 代码demo <script src="https://gist.github.com/S…
用命令创建自动爬虫文件 创建爬虫文件是根据scrapy的母版来创建爬虫文件的 scrapy genspider -l  查看scrapy创建爬虫文件可用的母版 Available templates:母版说明 basic     创建基础爬虫文件 crawl    创建自动爬虫文件 csvfeed      创建爬取csv数据爬虫文件 xmlfeed  创建爬取xml数据爬虫文件 创建一个基础母版爬虫,其他同理 scrapy genspider  -t  母版名称  爬虫文件名称  要爬取的域名…
本文示例代码已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 大家好我是费老师,我写过很多篇介绍geopandas相关技术的文章,而geopandas之所以如此高效易用,成为Python GIS生态中的翘楚,离不开其底层依赖库shapely对其矢量计算功能的支持. 不仅是作为geopandas的基石,直接使用shapely中极其丰富的各种矢量操作API,也可以帮助我们轻松实现各种细致入微的矢量操作.而就在几…
最近研究搜索引擎.知识图谱和Python爬虫比较多,中文乱码问题再次浮现于眼前.虽然市面上讲述中文编码问题的文章数不胜数,同时以前我也讲述过PHP处理数据库服务器中文乱码问题,但是此处还是准备简单做下笔记.方便以后查阅和大家学习.        中文编码问题的处理核心都是——保证所有的编码方式一致即可,包括编译器.数据库.浏览器编码方式等,而Python通常的处理流程是将unicode作为中间转换码进行过渡.先将待处理字符串用unicode函数以正确的编码转换为Unicode码,在程序中统一用U…