python爬虫学习——xlwt库,sqlite库
xlwt库主要是对excel进行操作,主要流程就是创建对象,创建工作表,写入数据,保存数据表。代码练习如下
'''
import xlwt
workbook = xlwt.Workbook(encoding="utf-8") #创建workbook对象
workSheet = workbook.add_sheet("sheet1") #创建工作表
workSheet.write(0,0,"hello") #写入数据,第一个参数行,第二个参数列,第三个参数内容
workbook.save("student.xls") #保存数据表
'''
import xlwt
workbook = xlwt.Workbook(encoding="utf-8")
worksheet = workbook.add_sheet("sheet2")
for a in range(0,9):
for b in range(0,a+1):
jieguo = (a+1)*(b+1)
worksheet.write(a+1,b+1,"%d*%d =%d"%(a+1,b+1,jieguo))
workbook.save("chengfa.xls")
sqlite是python自带的轻型数据库,代码练习如下
'''
#链接数据库
import sqlite3
conn = sqlite3.connect("test.db") #打开或创建数据库文件
print("opened database successfully")
'''
# #创建数据表
# import sqlite3
# conn = sqlite3.connect("test.db") #打开或创建数据库文件
# print("成功打开数据库")
# c = conn.cursor() #获取游标
#
# sql = '''
# create table company
# (id int primary key not null,
# name text not null,
# age int not null,
# address char(50),
# salary real);
#
# '''
#
# c.execute(sql) #执行sql
# conn.commit() #提交数据库操作
# conn.close() #关闭数据库链接
#
# print("成功建表")
#插入数据
# import sqlite3
# conn = sqlite3.connect("test.db") #打开或创建数据库文件
# print("成功打开数据库")
# c = conn.cursor() #获取游标
#
# sql = '''
# insert into company(id,name,age,address,salary)
# values (2,"张三仨",35,"成都",18000);
# '''
#
# c.execute(sql) #执行sql
# conn.commit() #提交数据库操作
# conn.close() #关闭数据库链接
#
# print("成功插入数据")
#查询数据
import sqlite3
conn = sqlite3.connect("test.db") #打开或创建数据库文件
print("成功打开数据库")
c = conn.cursor() #获取游标
sql = '''
select id,name,address,salary from company
'''
cursor = c.execute(sql) #执行sql
for row in cursor:
print("id = ",row[0])
print("name = ", row[1])
print("address = ", row[2])
print("salary = ", row[3],"\n")
conn.close() #关闭数据库链接
print("查询完毕")
python爬虫学习——xlwt库,sqlite库的更多相关文章
- python爬虫学习之使用BeautifulSoup库爬取开奖网站信息-模块化
实例需求:运用python语言爬取http://kaijiang.zhcw.com/zhcw/html/ssq/list_1.html这个开奖网站所有的信息,并且保存为txt文件和excel文件. 实 ...
- python爬虫学习(一):BeautifulSoup库基础及一般元素提取方法
最近在看爬虫相关的东西,一方面是兴趣,另一方面也是借学习爬虫练习python的使用,推荐一个很好的入门教程:中国大学MOOC的<python网络爬虫与信息提取>,是由北京理工的副教授嵩天老 ...
- Python爬虫学习笔记-1.Urllib库
urllib 是python内置的基本库,提供了一系列用于操作URL的功能,我们可以通过它来做一个简单的爬虫. 0X01 基本使用 简单的爬取一个页面: import urllib2 request ...
- Python爬虫学习笔记-2.Requests库
Requests是Python的一个优雅而简单的HTTP库,它比Pyhton内置的urllib库,更加强大. 0X01 基本使用 安装 Requests,只要在你的终端中运行这个简单命令即可: pip ...
- python爬虫学习记录——各种软件/库的安装
Ubuntu18.04安装python3-pip 1.apt-get update更新源 2,ubuntu18.04默认安装了python3,但是pip没有安装,安装命令:apt install py ...
- python爬虫学习,使用requests库来实现模拟登录4399小游戏网站。
1.首先分析请求,打开4399网站. 右键检查元素或者F12打开开发者工具.然后找到network选项, 这里最好勾选perserve log 选项,用来保存请求日志.这时我们来先用我们的账号密码登陆 ...
- Python爬虫利器一之Requests库的用法
前言 之前我们用了 urllib 库,这个作为入门的工具还是不错的,对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助.入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取.那么这一节来 ...
- (转)Python爬虫利器一之Requests库的用法
官方文档 以下内容大多来自于官方文档,本文进行了一些修改和总结.要了解更多可以参考 官方文档 安装 利用 pip 安装 $ pip install requests 或者利用 easy_install ...
- Python爬虫之Beautiful Soup解析库的使用(五)
Python爬虫之Beautiful Soup解析库的使用 Beautiful Soup-介绍 Python第三方库,用于从HTML或XML中提取数据官方:http://www.crummv.com/ ...
- Python爬虫入门四之Urllib库的高级用法
1.设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性. 首先,打开我们的浏览 ...
随机推荐
- SqlmapAPI:自动化SQL注入的利器
SqlmapAPI:自动化SQL注入的利器 SqlmapAPI简介 SqlmapAPI是基于sqlmap工具的API接口,它允许用户通过编程方式调用sqlmap的功能,实现自动化的SQL注入安全检测. ...
- 入口函数与包初始化:Go程序的执行次序
前言 我们可能经常会遇到这样一个问题:一个 Go 项目中有数十个 Go 包,每个包中又有若干常量.变量.各种函数和方法,那 Go 代码究竟是从哪里开始执行的呢?后续的执行顺序又是什么样的呢? 事实上, ...
- C# 13 中的新增功能实操
前言 今天大姚带领大家一起来看看 C# 13 中的新增几大功能,并了解其功能特性和实际应用场景. 前提准备 要体验 C# 13 新增的功能可以使用最新的 Visual Studio 2022 版本或 ...
- MySqlDataAdapter.Fill() 报异常‘给定关键字不在字典中’的解决方案
MySqlDataAdapter.Fill() 报异常'给定关键字不在字典中'的解决方案 解决办法 升级依赖库 后来发现居然是MySql.Data.dll文件版本问题,我开始使用的是6.2.1.0版本 ...
- CSS布局——左右固定中间填满
小小例子,注意中间的div应该写在最后,留爪. 先上个高清无码图 源码实现 <!DOCTYPE html> <html lang="en" xmlns=" ...
- ocr识别遇到的小问题-图片的EXIF 元数据
背景 之前在公司通过paddleocr写了个接口,传入图片的base64编码返回识别出的文字信息.但是图片为横向时,文字行会乱序,所以准备新加一个功能通过paddleclas推理图片文字的倾斜角度 ...
- MCP开发应用,使用python部署sse模式
一.概述 MCP服务端当前支持两种与客户端的数据通信方式:标准输入输出(stdio) 和 基于Http的服务器推送事件(http sse) 1.1 标准输入输出(stdio) 原理: 标准输入输出 ...
- Window7搭建Kafka环境总结
1.安装zooeleeper 下载链接:http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.14/ 安装步骤如下: 1)解压zookeepe ...
- C#基础——超级方便的ExpandoObject类别
这东西是.NET Framework 4.5 的新东西..发现这个,大概就跟发现新大陆一样的兴奋,让我再次赞叹Anders Hejlsberg 之神.. 这边有MSDN : http://msdn.m ...
- Filter与Interceptor的区别
前言 在看springboot项目时,其中的会话持续时,了解到token,session,jwt等方法,但是接着我就了解到过滤器(Filter)以及拦截器(Interceptor),感觉这两个东西真的 ...