python 基础之文件读操作
创建一个名为‘尘曦’的文件内容如下
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
文件读操作
x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集
cx=x.read()#读取文件
print(cx)
x.close()#关闭文件
测试
D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 Process finished with exit code 0
读取文件前9个字符
x=open('尘曦','r',encoding='utf8')#定义文件对象及字符集
cx=x.read(9)#读取文件的前9个字符
print(cx)
x.close()#关闭文件
测试
D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个 Process finished with exit code 0
写文件操作
h=open('尘曦','r',encoding='utf8')# 先读
ch=h.read()
print(ch)
h.close()
x=open('尘曦','w',encoding='utf8')#定义文件的操作对象及字符集,w写;注意它写之前把文件清空
x.write('fghgfhh')
x.close()
print('修改成功')
c=open('尘曦','r',encoding='utf8')#改完后去读,查看内容
cc = c.read()
print(cc)
c.close()
测试
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算
修改成功
fghgfhh
新建一个文件与文件追加操作
c = open('尘曦-2','w',encoding='utf8')
c.write('哈哈哈')
c.write('尘曦')
查看新文件
哈哈哈尘曦
查看打开的文件句柄
c = open('尘曦-2','w',encoding='utf8')
print(c.fileno()) #打印文件句柄
c.write('哈哈哈')
c.write('尘曦')
测试
D:\python\python.exe D:/untitled/dir/for.py
3 Process finished with exit code 0
对文件追加内容
d = open('尘曦','r',encoding='utf8')
xd = d.read()
print(xd)
f = open('尘曦','a',encoding='utf8')
f.write('\n chenxi hahqa')
f.write('\n dff')
f.close()
x = open('尘曦','r',encoding='utf8')
cx = x.read()
print(cx)
x.close()
测试
D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa
dff
以列表格式显示
d = open('尘曦','r',encoding='utf8')
print(d.readline())
print(d.readlines()) #以列表形式显示所有内容
测试
D:\python\python.exe D:/untitled/dir/for.py
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 ['用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。\n', '[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。\n', 'Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算\n', '\n', ' chenxi hahqa\n', ' dff']
正常查看
d = open('尘曦','r',encoding='utf8')
for i in d.readlines():
print(i.strip())
测试
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa
dff
第三行打印的时候加一个字符串
d = open('尘曦','r',encoding='utf8')
nu=0
for i in d.readlines():
nu += 1
if nu == 3:
print(i.strip(),'chenxi')
else:
print(i.strip())
d.close()
测试
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
[1] Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 chenxi
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 chenxi hahqa
dff
原文
漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
一行一行取文件内容
d = open('尘曦','r',encoding='utf8')
for i in d:
print(i.strip())
d.close()
测试
D:\python\python.exe D:/untitled/dir/for.py
漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
原文
nihao chenxi haha woai ni
漫作年时别泪看。西窗蜡炬尚澜。不堪重梦十年间。
斗柄又垂天直北,客愁坐逼岁将阑。更无人解忆长安。
现在光标所在字符下标;一个中文字符是三个
d = open('尘曦','r',encoding='utf8')
print(d.tell())
print(d.read(4))
print(d.tell())
测试
D :\python\python.exe D:/untitled/dir/for.py
0
niha
4 Process finished with exit code 0
调整光标位置
d = open('尘曦','r',encoding='utf8')
print(d.tell()) #查看当前光标所在位置
print(d.read(4)) # 读取四个字符
print(d.tell()) #查看当前光标所在位置
print(d.read(5)) #从光标所在的位置向后读取5个字符
print(d.tell())# 显示光标所在位置
print(d.seek(0))#将光标移至文件收字符
print(d.read(2))#从首字符向后读取2个字符
print(d.tell())# 查看光标所在位置
测试
D:\python\python.exe D:/untitled/dir/for.py
0
niha
4
o che
9
0
ni
2
python 基础之文件读操作的更多相关文章
- Python基础灬文件常用操作
文件常用操作 文件内建函数和方法 open() :打开文件 read():输入 readline():输入一行 seek():文件内移动 write():输出 close():关闭文件 写文件writ ...
- python基础篇(文件操作)
Python基础篇(文件操作) 一.初始文件操作 使用python来读写文件是非常简单的操作. 我们使用open()函数来打开一个文件, 获取到文件句柄. 然后通过文件句柄就可以进行各种各样的操作了. ...
- python基础之文件读写
python基础之文件读写 本节内容 os模块中文件以及目录的一些方法 文件的操作 目录的操作 1.os模块中文件以及目录的一些方法 python操作文件以及目录可以使用os模块的一些方法如下: 得到 ...
- 第二篇:python基础之文件读写
python基础之文件读写 python基础之文件读写 本节内容 os模块中文件以及目录的一些方法 文件的操作 目录的操作 1.os模块中文件以及目录的一些方法 python操作文件以及目录可以使 ...
- 七. Python基础(7)--文件的读写
七. Python基础(7)--文件的读写 1 ● 文件读取的知识补充 f = open('file', encoding = 'utf-8') content1 = f.read() content ...
- python基础之文件操作
对于文件操作中最简单的操作就是使用print函数将文件输出到屏幕中,但是这种操作并不能是文件保存到磁盘中去,如果下调用该数据还的重新输入等. 而在python中提供了必要的函数和方法进行默认情况下的文 ...
- Day3 Python基础学习——文件操作、函数
一.文件操作 1.对文件操作流程 打开文件,得到文件句柄并赋值给一个变量 通过文件句柄对文件进行操作 关闭文件 #打开文件,读写文件,关闭文件 http://www.cnblogs.com/linha ...
- Python基础之文件和目录操作
1 .文件操作 1.1 文件打开和关闭 在python, 使用 open 函数, 可以打开一个已经存在的文件, 或者创建一个新文件. # 打开文件 f = open('test.txt', 'w') ...
- python基础(5)-文件操作
文件(file)操作 创建文件 verse.txt: 床前明月光 疑是地上霜 open(path(文件路径),mode(模式:r/r+[读],w/w+[写],a/a+[追加])):返回文件句柄(对象) ...
随机推荐
- EFCore.BulkExtensions Demo
最近做了一个项目,当用EF传统的方法执行时,花时4小时左右,修改后,时间大大减少到10分钟,下面是DEMO实例 实体代码: public class UserInfoEntity { [Key] pu ...
- winform 多个datagridview 之间同步滚动
1.添加Scroll事件 2.注意需判断数据长度,避免溢出 private void dgYY_Scroll(object sender, ScrollEventArgs e) { ) { dgFee ...
- 理解ASP.NET Core验证模型 Claim, ClaimsIdentity, ClaimsPrincipal
Claim, ClaimsIdentity, ClaimsPrincipal: Claim:姓名:xxx,领证日期:xxx ClaimsIdentity:身份证/驾照 ClaimsPrincipal: ...
- htm5实现 文件夹上传
观察百度云上传,可以看到input type=file 的标签上加个一个属性“webkitdirectory”,加上次属性即可选择整个文件夹.
- zol验证码抓包
http://www.zol.com/detail/lcd/samsung/25254662.html?zp_from=pro_price_pricenode 网站’ http://city.zol. ...
- lca最近公共祖先与树上倍增。
https://vjudge.net/contest/295298#problem/A lca 的题目 求任意两点的距离. A题是在线算法,用st表rmq来实现. https://blog.csdn. ...
- 1022_Digital_Library (30分)
这里提供两种写法, 其实都是一样的,第一种比较快. #include <bits/stdc++.h> using namespace std; map<string,set<s ...
- The Preliminary Contest for ICPC Asia Xuzhou 2019 J Random Access Iterator (树形DP)
每次循环向下寻找孩子时,随机选取一个孩子,设dp[u]为从u出发,不能得出正确答案的概率,则从u出发,走一次的情况下不能得出正确答案的概率是 P = (dp[v1]+dp[v2]+dp[v3]+--d ...
- PTA的Python练习题(十五)
第4章-12 求满足条件的斐波那契数 a=eval(input()) b=c=1 d=1 for i in range(a): c=b b=d d=b+c if d>a: print('{}'. ...
- Codeforces Round #622 (Div. 2) A. Fast Food Restaurant
Tired of boring office work, Denis decided to open a fast food restaurant. On the first day he made ...