心血来潮,昨天看见群里讨论一段图片转pdf的代码,直接拿过来发现不能用,原来是因为代码中传的文件对象不对,源码中说传递的是一个文件路径或一个文件对象.他传的是一个文件名,很是尴尬. 想了想,主要原因还是因为很多人不看源码,看了源码经常因为大段的注释英文看不懂,很是尴尬. 然后想了想,是否可以写一个翻译功能对源码进行翻译.功能实现,代码如下: 翻译中文的代码(使用有道翻译= =): def fanyi_youdao(self,content): url = 'http://fanyi.youdao…
原因:由于直接复制别人的网页文件到项目. 解决方案,自己右键,新建网页,再把控件代码复制到 aspx和 cs…
   此方法是取C#文件里面的方法块,并删除缩进符,感觉写得还是比较容易懂的,所以收藏下,以便将来用到. private static string GetCodeBlock(string allCode, string blockName) { int blockStart = allCode.IndexOf(blockName, StringComparison.OrdinalIgnoreCase); ) return "// " + blockName + " code…
//数据帧格式如下 //+-------+-------+-------+-------+---------+------+-------+ //|包头(2)|地址(1)|功能(1)|长度(1)|数据包(n)|CRC(2)|包尾(2)| //+-------+-------+-------+-------+---------+------+-------+ //长度,以长度后面第一个字节为起始,CRC最后一个字节为终止的字节数…
不知道大家有没有批量删除c文件和h文件中注释的需要,说起来搞笑,偶然翻出来早先写的一份,首先楼猪不是闲的蛋疼写这东西,工作需要,哪里要砖就要搬.冷门的东西大家需要的时候也不一定好找,分享给大家,省的自己写了. https://github.com/songjinli/deletenote 放心不会删除代码,可以指定删除文件或者目录下所有文件,不会覆盖当前文件,会生成一个以时间戳命名的备份.(还是建议大家自己做好一个备份,以防不测....) 可以删除所有的注释类型,如: 1. printf("%d…
日常我们在阅读一些PDF文章时候,我们会发现有些PDF文章带有非常多的注释,显得非常不美观,影响了阅读体验.那么PDF文章里的批注应该怎么进行删除呢?怎样批量删除PDF文件中的注释?   操作教程: 1.首先我们点击安装在电脑上的PDF编辑器,运行程序,我在看见软件界面之后,我们点击软件界面的“打开”选项.添加并打开我们需要进行编辑的PDF文件.   2.PDF文件打开以后,在软件的工具栏里找到“注释”按钮,单击按钮,会弹出一个下拉框,然后选择“显示注释列表”功能,即可进行批量删除注释操作.  …
我们在做项目的过程中,每个代码文件都应有此文件的注释,比如说作者,文件说明等.但是如果用EA生成的代码文件的注释是纯英文的,而且有些不是我们需要显示的注释,有些我们需要显示的它又不具备.那么我们就可以自己修改EA的文件模版,让它的注释更符合我所用. 比如说,我们的文件表头注释要求如下: /************************************************* 作者: 小组: 说明: 创建日期: 版本号: ********************************…
App.config: <?xml version="1.0" encoding="utf-8" ?> <configuration> <startup> <supportedRuntime version="v4.0" sku=".NETFramework,Version=v4.5" /> </startup> <connectionStrings> &…
问题: eclipse中注释的代码在debug的时候居然还能执行.那一刻内心是崩溃的.. 解决方案: 项目重编译显示都正常,并没有报错,然后发现项目编译后,WEB-INF/lib/classes中的class文件并没有更新,这就好理解了,项目其实没有编译成功.然后又发现项目图标上有个感叹号.是因为在 项目右键→Properties→Libraries 中有部分jar不正确,导致项目不能编译自动生成classes.加载一下jar项目就正常了.over..…
    一. 爬取http://blog.jobbole.com/all-posts/中的所有文章     1. 编写jobbole.py简单代码 import scrapy from scrapy.http import Request from urllib import parse class JobboleSpider(scrapy.Spider): name = 'jobbole' allowed_domains = ['blog.jobbole.com'] start_urls =…