亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

用Python讀取大文件的懶惰方法?

用Python讀取大文件的懶惰方法?

用Python讀取大文件的懶惰方法?我有一個非常大的文件4GB,當我試圖讀取它時,我的計算機掛起。所以我想一片地閱讀它,在處理完每一段之后,將處理后的部分存儲到另一個文件中,然后讀取下一段。有什么方法yield這些碎片?我想要一個懶惰法.
查看完整描述

3 回答

?
泛舟湖上清波郎朗

TA貢獻1818條經驗 獲得超3個贊

readline()接受一個可選的size參數,它近似于返回的行中讀取的行數。

bigfile = open('bigfilename','r')tmp_lines = bigfile.readlines(BUF_SIZE)while tmp_lines:
    process([line for line in tmp_lines])
    tmp_lines = bigfile.readlines(BUF_SIZE)


查看完整回答
反對 回復 2019-06-05
  • 3 回答
  • 0 關注
  • 916 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號