亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

Dataset.map,Dataset.prefetch和Dataset.shuffl

Dataset.map,Dataset.prefetch和Dataset.shuffl

阿晨1998 2019-11-07 11:08:39
根據TensorFlow 文檔,類的prefetch和map方法tf.contrib.data.Dataset都有一個名為的參數buffer_size。對于prefetchmethod,該參數稱為,buffer_size并且根據文檔:buffer_size:一個tf.int64標量tf.Tensor,表示預取時將要緩沖的最大元素數。對于該map方法,output_buffer_size根據文檔,該參數稱為和:output_buffer_size:(可選。)tf.int64標量tf.Tensor,表示將要緩沖的最大已處理元素數。同樣,對于shuffle方法,根據文檔顯示相同的數量:buffer_size:一個tf.int64標量tf.Tensor,表示此數據集中要從中采樣新數據集的元素數。這些參數之間有什么關系?假設我創建一個Dataset對象,如下所示: tr_data = TFRecordDataset(trainfilenames)    tr_data = tr_data.map(providefortraining, output_buffer_size=10 * trainbatchsize, num_parallel_calls\=5)    tr_data = tr_data.shuffle(buffer_size= 100 * trainbatchsize)    tr_data = tr_data.prefetch(buffer_size = 10 * trainbatchsize)    tr_data = tr_data.batch(trainbatchsize)buffer以上代碼段中的參數在扮演什么角色?
查看完整描述

3 回答

  • 3 回答
  • 0 關注
  • 7021 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號