1. 环境. Python:3.6.1 Python IDE:pycharm 系统:win7 2. 简单示例 import pymongo # mongodb服务的地址和端口号mongo_url = "127.0.0.1:27017" # 连接到mongodb,如果参数不填,默认为“localhost:27017”client = pymongo.MongoClient(mongo_url) #连接到数据库myDatabaseDATABASE = "myDatabase&qu…
python操作mongodb数据库②python使用pymongo操作mongodb的增删改查 文档http://api.mongodb.com/python/current/api/index.htmlhttp://api.mongodb.com/python/current/api/pymongo/collection.html 1.安装python操作mongodb的程序pip install pymongo 验证是否安装成功 C:\Users\ajie>python Python (v…
Python 使用pymongo操作mongodb库 2016-12-31 21:55 1115人阅读 评论(0) 收藏 举报  分类: - - - Python(10)  版权声明:本文为博主原创文章,未经博主允许不得转载.   目录(?)[+]   1,安装python3.5 如果Python还没有安装,可以直接用yum安装, # 不过安装的是2.6 version yum install -y python 源码安装3.5 wget https://www.python.org/ftp/p…
http://blog.csdn.net/azhao_dn/article/details/16989777 可能大家都遇到过,python在输出的csv文件中如果有utf-8格式的中文,那么在使用excel打开该csv文件时,excel将不能够有效识别 出文件中的中文数据,严重时甚至不能够识别出分隔符.那么,要怎样操作才能够让excel识别出utf-8格式的中文呢?方法其实很简单,见以下代码: import codecs with open('ExcelUtf8.csv', 'w') as f…
测试主机1:Windows 10,MongoDB 3.6.3,WPS 10.1,Notepad++ 7.5.3, 测试主机2:Ubuntu 16.04,MongoDB 4, 今天测试了将数据从文件——csv文件——导入到MongoDB数据库中,使用了它的mongoimport工具——Windows和Ubuntu上安装后都是有的. Windows系统的mongoimport导入文件命令(先进入导入文件所在目录): mongoimport -d databasename -c statis_data…
读取txt的内容并用百度查找搜索 1 # coding = utf-8 2 3 from selenium import webdriver 4 import time 5 6 # 打开浏览器 7 dr = webdriver.Firefox() 8 dr.get("http://www.baidu.com") 9 10 ''' 11 # 读取列表的 12 words = ['python', 'selenium', 'webdriver'] 13 14 for word in wor…
在mongo shell 中对数据进行排序操作的时候 db.getCollection('ANJUKE_PRICE').find({},{'id':1,'_id':0}).sort({'id':1}) 但是在python代理里运行上面的语句会报错,需要改成 db.getCollection('ANJUKE_PRICE').find({},{'id':1,'_id':0}).sort('id',1)…
1. Scrapy框架 Scrapy是python下实现爬虫功能的框架,能够将数据解析.数据处理.数据存储合为一体功能的爬虫框架. 2. Scrapy安装 1. 安装依赖包 yum install gcc libffi-devel python-devel openssl-devel -y yum install libxslt-devel -y 2. 安装scrapy pip install scrapypip install twisted==13.1.0 注意事项:scrapy和twist…
因为新浪微博网页版爬虫比较困难,故采取用手机网页端爬取的方式 操作步骤如下: 1. 网页版登陆新浪微博 2.打开m.weibo.cn 3.查找自己感兴趣的话题,获取对应的数据接口链接 4.获取cookies和headers # -*- coding: utf-8 -*- import requests import csv import os base_url = 'https://m.weibo.cn/api/comments/show?id=4131150395559419&page={pa…
自己实践成功的从csv文件中读取用户名密码并实际登录系统后判断是否登录成功,并将已经运行的用户名密码及运行结果输出到一个新的csv文件中~ # coding=utf-8 from selenium import webdriver from time import sleep import keyword from selenium.webdriver.common.keys import Keys from selenium.webdriver.support.wait import WebD…