Pythonで巨大なCSVの処理が突然停止した場合、「強制終了」とはどういう意味ですか?

| | | | |

大きなCSVファイルをインポートし、ファイル内の各単語の出現回数をカウントしてから、そのカウントを別のCSVファイルにエクスポートするPythonスクリプトがあります。

しかし、何が起こっているのかということです。カウント部分が終了してエクスポートが開始されると、端末に Killedと表示されます。

これはメモリの問題ではないと思います(もしそうなら、私はそうなると思います) Killed ではなくメモリエラーが発生します。

プロセスに時間がかかりすぎている可能性がありますか?その場合、タイムアウト期間を延長する方法はありますか?これを回避できますか?

コードは次のとおりです:

  csv.field_size_limit(sys.maxsize)counter = {} with open( "/ home / alex / Documents / version2 /cooccur_list.csv "、" rb ")as file_name:reader = csv.reader(file_name)for row in reader:if len(row)> 1:pair = row [0] +" "+ row [1] ifカウンターのペア:counter [pair] + = 1 else:counter [pair] = 1 print "finished counting" writer = csv.writer(open( "/ home / alex / Documents / version2 / dict.csv"、 "wb" ))キーの場合、値はcounter.items():writer.writerow([key、value]) 

そしてKilledfinishedcountingが出力された後に発生します、および完全なメッセージは次のとおりです。

  killed(プログラムはコード:137で終了しました)