Ich versuche gerade, Daten aus .csv-Dateien in Python 2.7 mit bis zu 1 Million Zeilen und 200 Spalten (Dateien reichen von 100 MB bis 1,6 GB) zu lesen. Ich kann dies (sehr langsam) für die Dateien mit tun unter 300.000 Zeilen, aber sobald ich darüber hinausgehe, erhalte ich Speicherfehler.Mein Code sieht so aus:
def getdata(Dateiname, Kriterien): data=[] für Kriterium in Kriterien: Daten. append(getstuff(filename, criteron)) return data def getstuff(filename, criteron): import csv data=[] with open(filename, "rb") as csvfile: datareader=csv.reader(csvfile) for row in datareader: if row[3]=="column header": data.append(row) elif len(data)<2 and row[3]!=criterion: pass elif row[3]==criterion: data.append(row ) else: return data
Der Grund für die else-Klausel in der getstuff-Funktion ist, dass alle Elemente, die das Kriterium erfüllen, zusammen in der CSV-Datei aufgelistet werden, also verlasse ich die Schleife when Ich komme an ihnen vorbei, um Zeit zu sparen.
Meine Fragen sind:
Wie schaffe ich es, dorthin zu gelangen dies, um mit den größeren Dateien zu arbeiten?
Gibt es eine Möglichkeit, es schneller zu machen?
Mein Computer hat 8 GB RAM, 64-Bit-Windows 7 und der Prozessor ist 3,40 GHz (nicht sicher, welche Informationen Sie benötigen).