一、windows下迁移access到mysql

  1. Windows Access 数据 迁移到 Mysql(5.5)数据库
  2.  
  3. . 具体做法
  4. . access的表中选择,文件->导出->保存类型->excel->填写文件名
  5.  
  6. - Navicat for mysql的表中,导入向导->excel类型-》选中刚才的文件->下一步->。。。->对应目标栏位和源栏位->开始即可
  7.  
  8. 前提是:两个表的字段数据类型一致。主键会比较麻烦,可以先转化后改动主键
  9. . ODBC方式连接mysql数据库 ODBC 做到accessmysql实时同步更新
  10.  
  11. 比较12,1是手动导入的方式,自主性强,但是相互之间不会实时更新,2更优!但是需要注意外键的关系
  12.  
  13. . Access若存在外键关系
  14. . access中制作表格时如何设置外键
  15. 手动建立两表一对多参照完整性(关系可以设定参照完整性,这样你在其中一个表中更改或删除记录时,将同步到另一个表)
  16. 注:注意设置外键前一方表的关联字段必须是主键或建有唯一索引
  17. .
  18.  
  19. . 直接mysql上存access导入过来的表,django能执行吗? pymysql orm 反向生成表
  20.  
  21. - accss的表不用刻意去命名
  22. - python manage.py inspectdb > models.py 反向生成models.py
  23. - 替换models.py文件
  24. - python manage.py migrate
  25. - 正常ORM调用
  26.  
  27. 迁移过程问题分析:
  28. - 建表乱码问题
  29. 去除带中文字段、手动添加外键等关系
  30. - 先正向生成models文件
  31. - 在将之前已经建立好关系的表直接粘贴到本数据库中
  32. - Python manage.py inspectdb > models.py
  33. - 再正向生成migrate时会报重复的错(already exists
  34. - 直接 python manage.py migrate myapp --fake
  35. - 在已有的表上再加入外键
  36. - Dbtestcase
  37. - App01ProjFunc
  38.  
  39. . 外键关系手动添加。。。。。 能使用吗

二、 index页面

  1. index.html设计
  2. . https://icons8.com/icons/set/find icon图标
  3. . 71.0.3578.98
  4. . jquery.flexisel.js 是一款响应式旋转木马插件,
  5. 它可以拥有幻灯片播放,图片展示,文章展示等等,
  6. 我们今天手动把这个插件集成到wordpress中。本站
  7. 提供了DEMO下载。
  8. - http://www.511yj.com/wordpress-flexisel-js.html
  9. . jqgrid
  10. . 台架预约项目需要手动创建数据表 server_calenda 才能启用
  11. . gritter
  12. 边框提示插件
  13. . Ubuntu_16_04
  14. - D:\Documents\Virtual Machines\Ubuntu_16_04
  15. . 云服务器的使用
  16. https://mp.weixin.qq.com/s/-9pqpz5FKTgPUi_1iRYnMQ
  17.  
  18. table 数据表格文档 - layui.table
  19.  
  20. redis
  21. - 若用户多,session服务器
  22. - 对于经常访问的如首页,则用缓存服务器
  23. JWT
  24. https://www.jianshu.com/p/576dbf44b2ae
  25. 第一部分我们称它为头部(header),第二部分我们称其为载荷
  26. payload, 类似于飞机上承载的物品),第三部分是签证(signature).
  27. gritter
  28. logo一样的广告显示
  29. to-do:
  30. .设计后台管理页面
  31. .做好incredidb反向生成的表,并建立外键关系正常查询
  32. - 考虑建表的优化
  33. .虚拟机安装redismysql,正常使用
  34. .在线浏览asp页面轮播PPT显示
  35. - jquery给未来元素添加style的属性 https://zhidao.baidu.com/question/431431850462605412.html
  36. -
  37. .HTML里面Textarea换行总结
  38. <script>
  39. //换行转回车
  40. var haha=document.getElementById("SendTextArea").value;
  41. haha=haha.replace('<br />','/n');
  42. document.getElementById("SendTextArea").value=haha;
  43. </script>

三、自动化selenium爬

  1. from selenium import webdriver
  2.  
  3. options = webdriver.ChromeOptions()
  4.  
  5. prefs = {'profile.default_content_settings.popups': , # 设置为 禁止弹出窗口
  6. 'download.default_directory': 'D:\\chrome_downdir'} # 设置下载路径
  7. options.add_experimental_option('prefs', prefs)
  8.  
  9. driver = webdriver.Chrome(chrome_options=options)
  10. baidu = driver.get('http://www.baidu.com/')
  11. length = len(driver.find_elements_by_tag_name("a"))
  12. print(length)
  13. import time
  14.  
  15. f = open('news.log', mode='a+')
  16. links = driver.find_elements_by_tag_name("a")
  17. for i in range(,length):
  18. link = links[i]
  19. if not (len(link.get_attribute("href"))<):
  20. f.write(str(i) +':'+link.get_attribute("href")+"\n")
  21. print('')
  22. link.click()
  23. time.sleep()
  24. print('')
  25. driver.back()

四、页面中加入查阅PPT的功能

  1. <div class="pdf">
  2. <iframe id="pdf_page" name="pdf_page" style="width:1400px;height:800px">
  3. </iframe>
  4. </div>
  5. <script>
  6. <%if Request.QueryString("id")= "" then%>
  7. $(document).ready(function () {
  8. var url = "images/media/11111.pdf";//这里就可以做url动态切换--主要是使用iframe
  9. $("#pdf_page").attr("src", url);
  10. $(".pdf").media();
  11. });
  12.  
  13. <%elseif Request.QueryString("id")= "" then%>
  14. $(document).ready(function () {
  15. var url = "images/media/2222.pdf";//这里就可以做url动态切换--主要是使用iframe
  16. $("#pdf_page").attr("src", url);
  17. $(".pdf").media();
  18. });
  19. <%end if%>
  20. </script>

五、学习爬虫

  1. .commonutils.py
  2.  
  3. # -*- coding: UTF- -*-
  4. import urllib2
  5.  
  6. #读取配置文件
  7. def readConfigFile(filename, dataDict):
  8. CANDataList = []
  9. VehicleDataList = []
  10. DataPathList = []
  11. try:
  12. configFile = file(filename)
  13. while True:
  14. line = configFile.readline()
  15. if len(line) == :
  16. break
  17. if line.startswith("CANData"):
  18. tmpList = line.split("=")[].split(",")
  19. for i in tmpList:
  20. CANDataList.append(i.strip())
  21. dataDict["CANData"] = CANDataList
  22. if line.startswith("VehicleData"):
  23. tmpList = line.split("=")[].split(",")
  24. for i in tmpList:
  25. VehicleDataList.append(i.strip())
  26. dataDict["VehicleData"] = VehicleDataList
  27. if line.startswith("DataPath"):
  28. tmpList = line.split("=")[].split(",")
  29. for i in tmpList:
  30. DataPathList.append(i.strip())
  31. dataDict["DataPath"] = DataPathList
  32. except:
  33. print "Exception: readConfigFile"
  34. else:
  35. print "Read config file successfully"
  36. finally:
  37. configFile.close()
  38.  
  39. def proxy_connect():
  40. proxy_handler = urllib2.ProxyHandler({"http": "http://proxy.baidu.com:8080/"})
  41. password_mgr = urllib2.HTTPPasswordMgrWithDefaultRealm()
  42. proxy_auth_handler = urllib2.ProxyBasicAuthHandler(password_mgr)
  43. proxy_auth_handler.add_password(None, "http://proxy.baidu.com:8080", "w000baidu", "baidu@123,.,")
  44. opener = urllib2.build_opener(proxy_handler, proxy_auth_handler)
  45. urllib2.install_opener(opener)
  46.  
  47. def createHtmlFile(content):
  48. try:
  49. hFile = file("htmlFile.txt", "w")
  50. hFile.write(content)
  51. except:
  52. print "Exception: htmlFile"
  53. else:
  54. print "htmlFile.txt is ok"
  55. finally:
  56. hFile.close()
  57.  
  58. def getZipList(filename):
  59. zipList = []
  60. try:
  61. hFile = file(filename)
  62. while True:
  63. line = hFile.readline()
  64. if len(line) == :
  65. break
  66. if ".zip" in line:
  67. zipName = line.split('">')[].split("/")[-]
  68. zipList.append(zipName)
  69. except:
  70. print "Exception: getZipList"
  71. zipList = []
  72. else:
  73. print "zipList is ok"
  74. finally:
  75. hFile.close()
  76. return zipList
  77.  
  78. . conf
  79.  
  80. # -*- coding: UTF- -*-
  81.  
  82. #填写服务器进行数据分类的CAN,以逗号分隔
  83. #如: CANData = BMS_CHARGE, BmuInner, PowertraintSubnet, SmartSubnet
  84.  
  85. CANData = BmsCharge, ChargerCAN, BmuInner, BmuInnerCAN, PowertraintSubnet, SmartSubnet, PowertrainSubnet, EnergySubnet, OriginalSubnet
  86.  
  87. #填写要获取数据的车辆,以逗号分隔,如下
  88. #如: VehicleData = 1st_car, 2nd_car, 3rd_car
  89.  
  90. VehicleData = 1st_car, 2nd_car, secondmodelx, modelx
  91.  
  92. #填写服务器存储数据路径
  93. #如: DataPath = /opt/BMS_Vehicle_Data/
  94.  
  95. DataPath = /home/bms/BMS_Vehicle_Data
  96.  
  97. .htmlFile.txt
  98.  
  99. <HTML><HEAD><LINK HREF="jetty-dir.css" REL="stylesheet" TYPE="text/css"/><TITLE>Directory: /MON/secondmodelx/</TITLE></HEAD><BODY>
  100. <H1>Directory: /MON/secondmodelx/</H1>
  101. <TABLE BORDER=>
  102. <TR><TD><A HREF="/MON/secondmodelx/../">Parent Directory</A></TD><TD></TD><TD></TD></TR>
  103. </TABLE>
  104. </BODY></HTML>
  105.  
  106. .index.html
  107.  
  108. <!DOCTYPE html>
  109. <!--STATUS OK-->
  110. <html>
  111. <head>
  112. <meta http-equiv=content-type content=text/html;charset=utf->
  113. <meta http-equiv=X-UA-Compatible content=IE=Edge>
  114. <meta content=always name=referrer>
  115. <link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css>
  116. <title>百度一下,你就知道</title></head>
  117. <body link=#0000cc>
  118. <div id=wrapper>
  119. <div id=head>
  120. <div class=head_wrapper>
  121. <div class=s_form>
  122. <div class=s_form_wrapper>
  123. <div id=lg><img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129></div>
  124. <form id=form name=f action=//www.baidu.com/s class=fm><input type=hidden name=bdorz_come value=1>
  125. <input type=hidden name=ie value=utf-> <input type=hidden name=f value=> <input type=hidden
  126. name=rsv_bp
  127. value=>
  128. <input type=hidden name=rsv_idx value=> <input type=hidden name=tn value=baidu><span
  129. class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=
  130. autocomplete=off autofocus></span><span
  131. class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn"></span></form>
  132. </div>
  133. </div>
  134. <div id=u1><a href=http://news.baidu.com name=tj_trnews class=mnav>新闻</a> <a href=http://www.hao123.com
  135. name=tj_trhao123 class=mnav>hao123</a>
  136. <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo
  137. class=mnav>视频</a> <a
  138. href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a>
  139. <noscript><a
  140. href=http://www.baidu.com/bdorz/login.gif?login&amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1
  141. name=tj_login class=lb>登录</a></noscript>
  142. <script>document.write('<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u=' + encodeURIComponent(window.location.href + (window.location.search === "" ? "?" : "&") + "bdorz_come=1") + '" name="tj_login" class="lb">登录</a>');</script>
  143. <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多产品</a></div>
  144. </div>
  145. </div>
  146. <div id=ftCon>
  147. <div id=ftConw><p id=lh><a href=http://home.baidu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a></p>
  148. <p id=cp>&copy;&nbsp;Baidu&nbsp;<a href=http://www.baidu.com/duty/>使用百度前必读</a>&nbsp; <a
  149. href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img
  150. src=//www.baidu.com/img/gs.gif></p></div>
  151. </div>
  152. </div>
  153. </body>
  154. </html>
  155.  
  156. .synchronizeData.py
  157.  
  158. # -*- coding: UTF- -*-
  159. #!/usr/bin/python
  160. # Filename : obtainData.py
  161.  
  162. import urllib2, sys, os, time
  163. import commonUtils
  164.  
  165. def main(url, pathList, oldZipList, bakPath):
  166. try:
  167. #建立proxy连接
  168. commonUtils.proxy_connect()
  169. # 把url页面源代码写入txt文本,并提取zip包名
  170. f = urllib2.urlopen(url)
  171. content = f.read()
  172. commonUtils.createHtmlFile(content)
  173. zipNameList = commonUtils.getZipList("htmlFile.txt")
  174. zipList = []
  175. #排除已经获取的zip包名
  176. for i in zipNameList:
  177. logName = i[:-] + ".log"
  178. if logName not in oldZipList:
  179. zipList.append(i)
  180. if len(zipList) == :
  181. print "There is no vehicle data to be synchronied."
  182. return
  183. #下载zip包并解压
  184. for zipName in zipList:
  185. try:
  186. zipUrl = url + "/" + zipName
  187. path = None
  188. g = urllib2.urlopen(zipUrl)
  189. data = g.read()
  190. for i in pathList:
  191. if zipName.split("_")[] in i:
  192. path = i
  193. break
  194. serverPath = path + zipName
  195. with open(serverPath, "wb") as code:
  196. code.write(data)
  197. t =
  198. while True:
  199. if os.system("unzip -tq %s" % serverPath) == :
  200. if os.system("unzip -q %s -d %s" % (serverPath, path)) == :
  201. if os.system("rm %s" % serverPath) == :
  202. print "Succeeded in unzip and removing the zip."
  203. else:
  204. print "Failed to upzip %s" % serverPath
  205. break
  206. else:
  207. time.sleep()
  208. t +=
  209. print "time.sleep %ds" % t
  210. if t > :
  211. os.system("mv %s %s" % (serverPath, bakPath))
  212. break
  213. except:
  214. if os.path.isfile(serverPath):
  215. print "An exception occurs when getting %s, so delete the zip." % serverPath
  216. os.system("rm -r %s" % serverPath)
  217. except:
  218. print "There is an exception when synchronizing data."
  219.  
  220. if __name__ == "__main__":
  221. dataDict = {}
  222. sourceUrl = "http://1.2.3.4:8084/"
  223. while True:
  224. time.sleep()
  225. # 读取配置文件
  226. commonUtils.readConfigFile("conf", dataDict)
  227. print dataDict
  228. CANDataList = dataDict["CANData"]
  229. VehicleDataList = dataDict["VehicleData"]
  230. DataPath = dataDict["DataPath"][]
  231. #根据配置文件内容获取数据
  232. for vehicle in VehicleDataList:
  233. bakPath = DataPath + os.sep + vehicle + os.sep + "bak" + os.sep
  234. if not os.path.isdir(bakPath):
  235. os.makedirs(bakPath)
  236. pathList = []
  237. oldZipList = []
  238. targetUrl = sourceUrl + "MON/" + vehicle
  239. for CAN in CANDataList:
  240. path = DataPath + os.sep + vehicle + os.sep + CAN + os.sep
  241. if not os.path.isdir(path):
  242. os.makedirs(path)
  243. pathList.append(path)
  244. # 查找已经获取过的zip包名
  245. oldZipList.extend(os.listdir(path))
  246.  
  247. #处理已经获取过的zip包名
  248. #oldZipFile = vehicle + "_" + CAN
  249. #oldZipList = []
  250. #if os.path.exists(oldZipFile):
  251. # f = file(oldZipFile)
  252. # oldZipList = cPickle.load(f)
  253. # f.close()
  254. main(targetUrl, pathList, oldZipList, bakPath)
  255. #f = file(oldZipFile, "w")
  256. #cPickle.dump(templist, f)
  257. #f.close()
  258.  
  259. .temp.log
  260.  
  261. # -*- coding: UTF- -*-
  262. #!/usr/bin/python
  263. # Filename : obtainData.py
  264.  
  265. import urllib2, sys, os, time
  266. import commonUtils
  267.  
  268. def main(url, pathList, oldZipList, bakPath):
  269. try:
  270. #建立proxy连接
  271. commonUtils.proxy_connect()
  272. # 把url页面源代码写入txt文本,并提取zip包名
  273. f = urllib2.urlopen(url)
  274. content = f.read()
  275. commonUtils.createHtmlFile(content)
  276. zipNameList = commonUtils.getZipList("htmlFile.txt")
  277. zipList = []
  278. #排除已经获取的zip包名
  279. for i in zipNameList:
  280. logName = i[:-] + ".log"
  281. if logName not in oldZipList:
  282. zipList.append(i)
  283. if len(zipList) == :
  284. print "There is no vehicle data to be synchronied."
  285. return
  286. #下载zip包并解压
  287. for zipName in zipList:
  288. try:
  289. zipUrl = url + "/" + zipName
  290. path = None
  291. g = urllib2.urlopen(zipUrl)
  292. data = g.read()
  293. for i in pathList:
  294. if zipName.split("_")[] in i:
  295. path = i
  296. break
  297. serverPath = path + zipName
  298. with open(serverPath, "wb") as code:
  299. code.write(data)
  300. t =
  301. while True:
  302. if os.system("unzip -tq %s" % serverPath) == :
  303. if os.system("unzip -q %s -d %s" % (serverPath, path)) == :
  304. if os.system("rm %s" % serverPath) == :
  305. print "Succeeded in unzip and removing the zip."
  306. else:
  307. print "Failed to upzip %s" % serverPath
  308. break
  309. else:
  310. time.sleep()
  311. t +=
  312. print "time.sleep %ds" % t
  313. if t > :
  314. os.system("mv %s %s" % (serverPath, bakPath))
  315. break
  316. except:
  317. if os.path.isfile(serverPath):
  318. print "An exception occurs when getting %s, so delete the zip." % serverPath
  319. os.system("rm -r %s" % serverPath)
  320. except:
  321. print "There is an exception when synchronizing data."
  322.  
  323. if __name__ == "__main__":
  324. dataDict = {}
  325. sourceUrl = "http://1.2.3.4:8084/"
  326. while True:
  327. time.sleep()
  328. # 读取配置文件
  329. commonUtils.readConfigFile("conf", dataDict)
  330. print dataDict
  331. CANDataList = dataDict["CANData"]
  332. VehicleDataList = dataDict["VehicleData"]
  333. DataPath = dataDict["DataPath"][]
  334. #根据配置文件内容获取数据
  335. for vehicle in VehicleDataList:
  336. bakPath = DataPath + os.sep + vehicle + os.sep + "bak" + os.sep
  337. if not os.path.isdir(bakPath):
  338. os.makedirs(bakPath)
  339. pathList = []
  340. oldZipList = []
  341. targetUrl = sourceUrl + "MON/" + vehicle
  342. for CAN in CANDataList:
  343. path = DataPath + os.sep + vehicle + os.sep + CAN + os.sep
  344. if not os.path.isdir(path):
  345. os.makedirs(path)
  346. pathList.append(path)
  347. # 查找已经获取过的zip包名
  348. oldZipList.extend(os.listdir(path))
  349.  
  350. #处理已经获取过的zip包名
  351. #oldZipFile = vehicle + "_" + CAN
  352. #oldZipList = []
  353. #if os.path.exists(oldZipFile):
  354. # f = file(oldZipFile)
  355. # oldZipList = cPickle.load(f)
  356. # f.close()
  357. main(targetUrl, pathList, oldZipList, bakPath)
  358. #f = file(oldZipFile, "w")
  359. #cPickle.dump(templist, f)
  360. #f.close()

some learning的更多相关文章

  1. 【Machine Learning】KNN算法虹膜图片识别

    K-近邻算法虹膜图片识别实战 作者:白宁超 2017年1月3日18:26:33 摘要:随着机器学习和深度学习的热潮,各种图书层出不穷.然而多数是基础理论知识介绍,缺乏实现的深入理解.本系列文章是作者结 ...

  2. 【Machine Learning】Python开发工具:Anaconda+Sublime

    Python开发工具:Anaconda+Sublime 作者:白宁超 2016年12月23日21:24:51 摘要:随着机器学习和深度学习的热潮,各种图书层出不穷.然而多数是基础理论知识介绍,缺乏实现 ...

  3. 【Machine Learning】机器学习及其基础概念简介

    机器学习及其基础概念简介 作者:白宁超 2016年12月23日21:24:51 摘要:随着机器学习和深度学习的热潮,各种图书层出不穷.然而多数是基础理论知识介绍,缺乏实现的深入理解.本系列文章是作者结 ...

  4. 【Machine Learning】决策树案例:基于python的商品购买能力预测系统

    决策树在商品购买能力预测案例中的算法实现 作者:白宁超 2016年12月24日22:05:42 摘要:随着机器学习和深度学习的热潮,各种图书层出不穷.然而多数是基础理论知识介绍,缺乏实现的深入理解.本 ...

  5. Deep learning:五十一(CNN的反向求导及练习)

    前言: CNN作为DL中最成功的模型之一,有必要对其更进一步研究它.虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好.而本文 ...

  6. Programming Learning - Based on Project

    Today when taking a bath I got a good idea that it is an efficient and interesting way to learn a ne ...

  7. 做中学(Learning by Doing)之背单词-扇贝网推荐

    做中学(Learning by Doing)之背单词-扇贝网推荐 看完杨贵福老师(博客,知乎专栏,豆瓣)的「继续背单词,8个月过去了」,我就有写这篇文章的冲动了,杨老师说: 有时候我会感觉非常后悔,如 ...

  8. 【原】Learning Spark (Python版) 学习笔记(一)----RDD 基本概念与命令

    <Learning Spark>这本书算是Spark入门的必读书了,中文版是<Spark快速大数据分析>,不过豆瓣书评很有意思的是,英文原版评分7.4,评论都说入门而已深入不足 ...

  9. 【原】Learning Spark (Python版) 学习笔记(四)----Spark Sreaming与MLlib机器学习

    本来这篇是准备5.15更的,但是上周一直在忙签证和工作的事,没时间就推迟了,现在终于有时间来写写Learning Spark最后一部分内容了. 第10-11 章主要讲的是Spark Streaming ...

  10. 【机器学习Machine Learning】资料大全

    昨天总结了深度学习的资料,今天把机器学习的资料也总结一下(友情提示:有些网站需要"科学上网"^_^) 推荐几本好书: 1.Pattern Recognition and Machi ...

随机推荐

  1. 【论文笔记】Dynamic Routing Between Capsules

    Dynamic Routing Between Capsules 2018-09-16 20:18:30 Paper:https://arxiv.org/pdf/1710.09829.pdf%20 P ...

  2. OC的反射机制

    反射机制主要是指程序可以访问.检测和修改它本身状态或行为的一种能力.反射机制是指在运行状态中,对于任意一个类,都能够知道这个类的所有属性和方法.对于人一个对象,都能够调用这个对象的任意方法和属性.这种 ...

  3. angular --- s3core移动端项目

    因为记性不好的原因做个草稿笔记 app.js中 var myApp = angular.module('myApp',['ui.router','oc.lazyLoad','ngAnimate','数 ...

  4. Qgis练手

    师妹推荐了一个神器 Qgis,因为看我拿Echarts和Excel缝缝补补效率实在太低下. 还记得,以前写过一个“echarts画中国地图并上色”的笔记,那个应付一下事还行,真正需要精细画图的时候还得 ...

  5. scala操作HBase2.0

    在前面: scala:2.12 hbase:2.0.2 开发工具:IDEA 准备工作: 1.将生产上的hbase中的conf/hbase-site.xml文件拷贝到idea中的src/resource ...

  6. Lab 7-1

    Analyze the malware found in the file Lab07-01.exe. Questions and Short Answers How does this progra ...

  7. js之获取元素最终css属性

    很多时候 我们是不用jquery库的,虽然他很好,获取元素最终的css属性我们可以用:getComputedStyle window.getComputedStyle(element, null).g ...

  8. Otto.de:我为什么选择分布式垂直架构

    Otto.de:我为什么选择分布式垂直架构 http://cloud.51cto.com/art/201510/493867.htm

  9. Luffy之购物车页面搭建

    前面已经将一些课程加入购物车中,并保存到了后端的redis数据库中,此时做购物车页面时,我们需要将在前端向后端发送请求,用来获取数据数据 购物车页面 1.首先后端要将数据构建好,后端视图函数如下代码: ...

  10. 在win上配置linux虚拟机图解

    首先,先下载安装vmware,cpu的类型不支持AMD. 一直点下一步完成安装.