版权声明:欢迎转载。转载请注明地址:https://blog.csdn.net/weixin_32820767 https://blog.csdn.net/weixin_32820767/article/details/82314778
python pandas 读写文件:
读:
import pandas as pd
file_path = "abc.csv"
data = pd.read_csv(file_path) # data 是个dataframe,可以进行 dataframe 的操作(切割,分块,计算等等)
写:
data = pd.DataFrame(columns=("index", "Kernel", "Context", "Stream"))
serise = [i, kernel_name_new, context, stream] # 每一个list的每一个元素是字符串
data.loc[i] = serise # 逐行写入
data.to_csv(path_or_buf="info.csv", index=False) # 写入csv文件
使用 pandas 很方便。主要是利用dataframe 的各种操作,但面对大型文件的读写是不方便的。上述方法处理一个1.2G的 csv 文件非常慢!
使用 python 内建 open() 方法读写文件。
读:
file_path = "abc.csv"
with open(file_path) as f:
for i, line in enumerate(f.readlines()):
# i 是行数
# line 是每行的字符串,可以使用 line.strip().split(",") 按分隔符分割字符串
f.close()
写:
file_handle = open('info.txt', 'w')
file_handle.write("index"+","+"Kernel"+“,"+"Context"+","+"Stream"+'\n') # 写列名
serise = str(i)+","+kernel_name_new+","+context+","+stream # 每个元素都是字符串,使用逗号分割拼接成一个字符串
file_handle.write(serise+'\n') # 末尾使用换行分割每一行。
file_handle.close()
速度非常快!