用Python讀取大文件的懶惰方法?我有一個非常大的文件4GB,當我試圖讀取它時,我的計算機掛起。所以我想一片地閱讀它,在處理完每一段之后,將處理后的部分存儲到另一個文件中,然后讀取下一段。有什么方法yield這些碎片?我想要一個懶惰法.
3 回答

泛舟湖上清波郎朗
TA貢獻1818條經驗 獲得超3個贊
bigfile = open('bigfilename','r')tmp_lines = bigfile.readlines(BUF_SIZE)while tmp_lines: process([line for line in tmp_lines]) tmp_lines = bigfile.readlines(BUF_SIZE)
添加回答
舉報
0/150
提交
取消