一、批量合并csv文件《方法1》

import pandas as pd
import glob
import os # 获取所有CSV文件的路径
file_paths = glob.glob("C:\\Users\\Admin\\Desktop\\数据核对\\*.csv")
# 使用glob.glob函数获取指定目录下所有以.csv为扩展名的文件路径,并将结果存储在file_paths列表中 print(file_paths) # 打印出这些文件路径供你检查 # 创建一个空的 DataFrame
df = pd.DataFrame()
# 创建一个空的DataFrame,用于存储合并后的数据 # 逐个读取每个CSV文件,并将其添加到DataFrame中
for file_path in file_paths:
# 读取CSV文件并添加文件名为一列
temp_df = pd.read_csv(file_path, encoding='gbk')
# 使用pd.read_csv函数读取CSV文件,encoding参数指定了文件的编码格式,这里使用GBK编码
file_name = os.path.basename(file_path)
print(file_name)
# 使用os.path.basename函数获取文件名(包含扩展名)
temp_df['file_name'] = file_name
# 将文件名作为新的一列添加到temp_df中
df = df.append(temp_df, ignore_index=True)
# 使用df.append函数将temp_df合并到主DataFrame df中,ignore_index=True表示重新设置行索引 # 将DataFrame写入新的CSV文件中
df.to_csv("C:\\Users\\Admin\\Desktop\\合并数据.csv", index=False)
# 使用df.to_csv函数将合并后的数据保存为新的CSV文件,index=False表示不保存行索引

二、批量合并csv文件 多文件编码格式《方法2》

import pandas as pd
import glob
import os # 使用glob.glob函数获取指定目录下所有以.csv为扩展名的文件路径,并将结果存储在file_paths列表中
file_paths = glob.glob("C:\\Users\\Admin\\Desktop\\数据核对\\*.csv") # 创建一个空的DataFrame,用于存储合并后的数据
df = pd.DataFrame() # 循环遍历每个CSV文件,并将其添加到DataFrame中
for file_path in file_paths:
# 尝试使用不同的编码格式读取CSV文件,直到成功为止
for encoding in ['utf-8', 'gbk', 'gb2312', 'utf-16', 'iso-8859-1']:
try:
# 使用pd.read_csv函数读取CSV文件,encoding参数指定了文件的编码格式
temp_df = pd.read_csv(file_path, encoding=encoding)
break # 如果成功读取,则跳出循环
except UnicodeDecodeError: # 如果出现编码错误,则捕获该错误,并继续尝试下一个编码格式
continue
else: # 如果没有任何编码格式成功读取CSV文件,则打印一条错误消息,并继续处理下一个文件
print(f"无法读取CSV文件:{file_path}")
continue # 使用os.path.basename函数获取文件名(包含扩展名)
file_name = os.path.basename(file_path) # 将文件名作为新的一列添加到DataFrame中
temp_df['file_name'] = file_name # 使用df.append函数将temp_df合并到主DataFrame df中,ignore_index=True表示重新设置行索引
df = df.append(temp_df, ignore_index=True) # 使用df.to_csv函数将合并后的数据保存为新的CSV文件,index=False表示不保存行索引
df.to_csv("C:\\Users\\Admin\\Desktop\\合并数据.csv", index=False)

三、批量合并csv文件《方法3》

import os
import pandas as pd # 指定包含CSV文件的文件夹路径
folder_path = "C:\\Users\\Admin\\Desktop\\数据核对" # 获取文件夹中的所有CSV文件
csv_files = [file for file in os.listdir(folder_path) if file.endswith('.csv')] print(csv_files) # 打印出找到的CSV文件列表 # 创建一个空的DataFrame来存储合并后的数据
merged_data = pd.DataFrame() # 遍历所有CSV文件并合并它们
for file in csv_files:
file_path = os.path.join(folder_path, file) # 读取CSV文件,使用GBK编码(GBK是一种常见的中文字符编码)
df = pd.read_csv(file_path, encoding='GBK') # 添加一个新的列,用于标识数据来自哪个CSV文件
df['SourceFile'] = file # 合并数据,将当前CSV文件的数据追加到已合并的数据中
merged_data = merged_data.append(df, ignore_index=True) # 将合并后的数据保存为一个新的CSV文件,指定index=False以避免保存索引列
merged_data.to_csv("C:\\Users\\Admin\\Desktop\\合并数据.csv", index=False) # 打印完成消息
print('CSV文件合并完成并保存为合并数据.csv')

四、合并多种不同编码格式的csv文件

import os
import pandas as pd
import chardet def merge_csv_files(folder_path,output_path):
# 获取文件夹中的所有CSV文件
csv_files = [file for file in os.listdir(folder_path) if file.endswith('.csv')]
print(csv_files)
# 创建一个空的DataFrame来存储合并后的数据
merged_data = pd.DataFrame() # 遍历所有CSV文件并合并它们
for file in csv_files:
file_path = os.path.join(folder_path, file) # 使用 chardet.detect 函数检测文件编码格式
with open(file_path, 'rb') as f:
result = chardet.detect(f.read())
encoding = result['encoding'] # 读取CSV文件,指定检测到的编码格式
df = pd.read_csv(file_path, encoding=encoding) if "YYFX_OrderList" in file_path:
df.insert(12, 'NewColumnName', df.iloc[:, 11])
# 添加一个新的列,用于标识数据来自哪个CSV文件
df['SourceFile'] = file # 合并数据,将当前CSV文件的数据追加到已合并的数据中
merged_data = merged_data.append(df, ignore_index=True) # 将合并后的数据保存为一个新的CSV文件,指定index=False以避免保存索引列
merged_data.to_csv(output_path, index=False)
print("已将所有CSV文件合并为一个文件:合并数据.csv") folder_path = "C:\\Users\\Admin\\Desktop\\数据核对"
output_path = "C:\\Users\\Admin\\Desktop\\数据核对\\数据汇总.csv"
merge_csv_files(folder_path,output_path)

Python 批量合并csv文件的更多相关文章

  1. 使用Python批量合并PDF文件(带书签功能)

    网上找了几个合并pdf的软件,发现不是很好用,一般都没有添加书签的功能. 又去找了下python合并pdf的脚本,发现也没有添加书签的功能的. 于是自己动手编写了一个小工具,使用了PyPDF2. 下面 ...

  2. Python批量处理CSV文件

    #encoding: utf-8 __author__ = 'DELL' import csv import glob import datetime import sys import os rel ...

  3. Python批量合并处理B站视频

    最近想学习后端,又不想花钱,怎么办呢?于是在手机端B站(哔哩哔哩)上面找到了满意的免费视频教程,但是手机端看起来很不方便啊.于是,我通过在手机端缓存下来后,导入到了电脑端,但是我后面了发现两个问题: ...

  4. python在处理CSV文件时,字符串和列表写入的区别

    概述 Python在处理CSV文件时,如果writerow的对象是<type 'unicode'>字符串时,写入到CSV文件时将会出现一个字符占一个单元格的情况: 但是将字符串转换为列表类 ...

  5. 使用ffmpeg批量合并flv文件

    title: 使用ffmpeg批量合并flv文件 toc: false date: 2018-10-14 16:08:19 categories: methods tags: ffmpeg flv 使 ...

  6. python批量处理压缩文件

    python批量处理压缩文件 博客小序:在数据的处理中,下载的数据很有可能是许多个压缩文件,自己一个一个解压较为麻烦,最近几日自己在处理一次下载的数据时,遇到大量的压缩数据需要处理,于是利用pytho ...

  7. python批量运行py文件

    import os path="E:\\python" #批量的py文件路径 for root,dirs,files in os.walk(path): #进入文件夹目录 for ...

  8. python中操作csv文件

    python中操作csv文件 读取csv improt csv f = csv.reader(open("文件路径","r")) for i in f: pri ...

  9. Python:使用pymssql批量插入csv文件到数据库测试

    并行进程怎么使用? import os import sys import time def processFunc(i): time.sleep(10-i) print i if __name__= ...

  10. python脚本-excel批量转换为csv文件

    pandas和SQL数据分析实战视频教程 https://study.163.com/course/courseMain.htm?courseId=1006383008&share=2& ...

随机推荐

  1. NC51100 A Simple Problem with Integers

    题目链接 题目 题目描述 You have N integers, \(A_1, A_2, ... , A_N\) .You need to deal with two kinds of operat ...

  2. NC22604 小A与任务

    题目链接 题目 题目描述 小A手头有 n 份任务,他可以以任意顺序完成这些任务,只有完成当前的任务后,他才能做下一个任务 第 i 个任务需要花费 \(x_i\) 的时间,同时完成第 i 个任务的时间不 ...

  3. NC50505 二叉苹果树

    题目链接 题目 题目描述 有一棵二叉苹果树,如果数字有分叉,一定是分两叉,即没有只有一个儿子的节点.这棵树共N个节点,标号1至N,树根编号一定为1. 我们用一根树枝两端连接的节点编号描述一根树枝的位置 ...

  4. NC24605 [USACO 2011 Ope S]Corn Maze

    题目链接 题目 题目描述 This past fall, Farmer John took the cows to visit a corn maze. But this wasn't just an ...

  5. JS实现提示文本框可输入剩余字数

    最近在设计写博客功能时,涉及到留言框输入字数限制,需要给用户剩余数字提示. 参考文章:https://www.cnblogs.com/crazytrip/p/4968230.html 实现效果: 源码 ...

  6. Java集合框架学习(十四) Iterator接口详解

    Iterator接口介绍 public interface Iterator<E> iterator 用于迭代集合类型对象,例如: HashMap, ArrayList, LinkedLi ...

  7. 开源开发者的狂欢,STRK开了一个好头!附领取价值800元的web3空投教程

    这两天在Github和推特上最热闹的事情便是知名ETH(以太坊)二层公链项目STRK给所有gtihub上排名前5000的开源项目的项目贡献者提供了价值800元的代币空投,其中不乏前端程序员.大学生等w ...

  8. 硬件开发笔记(十一):Altium Designer软件介绍、安装过程和打开pcb工程测试

    前言   前面做高速电路,选择是阿li狗,外围电路由于读者熟悉AD,使用使用ad比较顺手,非高速电路就使用AD了,其实AD也可以做高速电路,由于笔者从13年开始做硬是从AD9开始的,所以开始切入AD做 ...

  9. python字典操作的大O效率

  10. 【Azure APIM】验证APIM删除后的恢复步骤

    问题描述 在Azure门户中,误删除API Management资源后,怎么办? 问题解答 遇见误删除的第一反应就是: 想恢复删除的内容,但是从门户上查看没有发现有可以操作的方面. (错误,Azure ...