起因 Python处理一下数据,大概有六七个G,然后再存到另外一个文件中,单线程跑起来发现太慢了,数据总量大概是千万行的级别,然后每秒钟只能处理不到20行--遂想怎么提高一下速度 尝试1-multiprocessing 代码如下: from multiprocessing.dummy import Pool as ThreadPool pool = ThreadPool(20) pool.map(func_name, args) pool.close() pool.join() 这里参考了这篇文…