Preguntas de la entrevista de Python diez (un método para leer big data en fragmentos para evitar memoria insuficiente)

import pandas as pd
def read_data(file_name):
    '''
    file_name:文件地址
    '''
    inputfile = open(file_name, 'rb') 
    data = pd.read_csv(inputfile, iterator=True)
    loop = True
    chunkSize = 1000 
    chunks = []
    while loop:
        try:
            chunk = dcs.get_chunk(chunkSize)
            chunks.append(chunk)
        except StopIteration:
            loop = False
            print("Iteration is stopped.")
    data = pd.concat(chunks, ignore_index=True)
    
    return data
Publicado 44 artículos originales · me gusta 0 · visitas 1226

Supongo que te gusta

Origin blog.csdn.net/weixin520520/article/details/105451313
Recomendado
Clasificación