亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何在不耗盡內存的情況下將 14,000 個圖像數據集加載到變量中?

如何在不耗盡內存的情況下將 14,000 個圖像數據集加載到變量中?

慕尼黑8549860 2023-05-16 14:24:07
我正在嘗試創建一個函數來將包含 14,000 張圖像的大型圖像數據集加載到一個變量中,但我遇到了內存 (RAM) 問題。我想做的是類似cifar100.load_data函數的東西,但對我來說不起作用。我定義的函數如下所示:    def load_data():        trn_x_names=os.listdir('data/train_x')        trn_y_names=os.listdir('data/train_y')            trn_x_list=[]         trn_y_list=[]            for image in trn_x_names[0:]:            img=cv2.imread('data/train_x/%s'%image)            img=cv2.cvtColor(img,cv2.COLOR_BGR2RGB)            trn_x_list.append(img)                for image in trn_y_names[0:]:            img=cv2.imread('data/train_y/%s'%image)            img=cv2.cvtColor(img,cv2.COLOR_BGR2RGB)            trn_y_list.append(img)                x_train= np.array(trn_x_list)        y_train= np.array(trn_y_list)        return x_train,y_train我首先一張一張地加載所有圖像,將它們添加到相應的列表中,最后將這些列表更改為數組numpy并將它們分配給一些變量并返回它們。但在途中,我遇到了 RAM 問題,因為它占用了我 100% 的 RAM。
查看完整描述

1 回答

?
動漫人物

TA貢獻1815條經驗 獲得超10個贊

您需要分批讀取圖像,而不是將整個數據集加載到內存中。如果您使用的是 tensorflow,請使用 ImageDataGenerator.flowfrom 目錄。如果您的數據沒有組織到子目錄中,那么您將需要創建一個 python 生成器來批量讀取數據。您可以在此處查看如何構建這樣的生成器。.?將批量大小設置為一個不會填滿您的內存的值,例如 30。



查看完整回答
反對 回復 2023-05-16
  • 1 回答
  • 0 關注
  • 133 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號