亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

數據量大。迭代而不耗盡內存的最佳方法?

數據量大。迭代而不耗盡內存的最佳方法?

PHP
MMMHUHU 2023-09-08 17:14:08
使用 Laravel 6 等 Eloquent Collection 類。所以我有“很多”數據需要處理。大約 5000 行,在獲取它時,會生成一個包含 5000 個模型的集合。現在,每個模型可能都有 20 個屬性需要讀取。有沒有快速的方法來做到這一點?我目前有一個要讀取的屬性數組,然后像這樣設置循環:\fopen()...foreach ($models as $model) {            $row = [];            foreach ($this->attributes as $attr) {                $row[] = \data_get($model, $attr);            }                \fputcsv($fh, $row);}\fclose()...$models是一個 Laravel 集合,由其中創建,EloquentModel::find($ids);其中$ids是整數數組。(來自數據庫的 5000 個 ID)$this指的是包含 foreach 循環的類。attributes除了包含上面代碼的函數和只是一個字符串數組的屬性之外,這個類中沒有其他任何東西。對于 5000 行,每行循環 20 個屬性,這可能需要很長時間來處理,并且在每種情況下,這實際上都會拋出FatalErrorException:  Allowed memory size of 134217728 bytes exhausted那么檢索每行屬性集的最快方法是什么?我個人想不出比這個嵌套循環更快的循環了。此外,看到\fputcsv()將每一行寫入文件,并且$row變量在每個循環中被覆蓋,為什么我仍然得到Allowed memory size exhausted?LazyCollection 是這里的解決方案嗎?
查看完整描述

1 回答

?
紫衣仙女

TA貢獻1839條經驗 獲得超15個贊

這將一次處理 200 個塊中的模型,從而節省大量內存。


Model::whereIn('id', $ids)->chunk(200, function($models){


      foreach ($models as $model) {

            $row = [];

            foreach ($this->attributes as $attr) {

                $row[] = \data_get($model, $attr);

            }

        

        \fputcsv($fh, $row);

      }

});


查看完整回答
反對 回復 2023-09-08
  • 1 回答
  • 0 關注
  • 98 瀏覽

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號