Ik gebruik python om een aantal grote bestanden te analyseren en ik loop tegen geheugenproblemen aan, dus ik heb sys.getsizeof() gebruikt om het gebruik bij te houden, maar het gedrag met numpy arrays is bizar. Hier is een voorbeeld van een kaart met albedo's die ik moet openen:
>>> importeer numpy als np >>> import struct >>> van sys import getsizeof >>> f = open("Albedo_map.assoc", "rb") >>> getsizeof(f) 144 >>> albedo = struct.unpack("%df" % (7200*3600), f.read(7200*3600*4)) >>> getsizeof(albedo) 207360056 >>> albedo = np.array(albedo).reshape(3600.7200) >>> getsizeof(albedo) 80
Nou, de gegevens zijn er nog, maar de grootte van het object, een kaart van 3600x7200 pixels, is van ~200 Mb naar 80 bytes gegaan. om te hopen dat mijn geheugenproblemen voorbij zijn en alles gewoon in numpy arrays om te zetten, maar ik heb het gevoel dat dit gedrag, als het waar is, op de een of andere manier in strijd zou zijn met een of andere wet van informatietheorie of thermodynamica, of zoiets, dus ik ben geneigd te geloven dat getsizeof() werkt niet met numpy arrays. Enig idee?