import pandas as pd
def read_data(file_name):
'''
file_name:文件地址
'''
inputfile = open(file_name, 'rb')
data = pd.read_csv(inputfile, iterator=True)
loop = True
chunkSize = 1000
chunks = []
while loop:
try:
chunk = dcs.get_chunk(chunkSize)
chunks.append(chunk)
except StopIteration:
loop = False
print("Iteration is stopped.")
data = pd.concat(chunks, ignore_index=True)
return data
Preguntas de la entrevista de Python diez (un método para leer big data en fragmentos para evitar memoria insuficiente)
Supongo que te gusta
Origin blog.csdn.net/weixin520520/article/details/105451313
Recomendado
Clasificación