1 回答

TA貢獻1735條經驗 獲得超5個贊
這可以從 3 種不同的觀點來回答。
參數:
由于您比較了 2 個不同大小的 convolution2D 層,因此了解???(????????)+??
每個所需的訓練參數數量很重要,這反過來會使您的模型更加復雜,并且容易/難以訓練。
在這里,當使用 conv2d 的第二個配置時,可訓練參數的數量增加了 2.5 倍以上
first conv2d layer: 64*(3*3*1)+64 = 640 second conv2d layer: 32*(7*7*1)+32 = 1600
輸入:
另一種詢問必須使用什么過濾器尺寸和原因的方法是首先分析輸入數據。由于第一個 conv2d 層(在輸入上)的目標是捕獲圖像中最基本的模式,問問自己圖像中最基本的模式是否真的需要更大的過濾器來學習?
如果您認為網絡識別對象需要大量像素,您將使用大過濾器(如 11x11 或 9x9)。如果您認為區分對象的是一些小的局部特征,您應該使用小過濾器(3x3 或 5x5)
通常,更好的做法是堆疊 conv2d 層以捕獲圖像中的更大圖案,因為它們由更小的過濾器更容易捕獲的更小圖案的組合組成。
最終目標:
通常 conv 網絡的目標是將圖像的高度和寬度壓縮到大量通道中,這些通道由過濾器組成。
這個將圖像轉化為其代表性特征的過程down sampling
使我們能夠最終在最后添加幾個密集層來完成我們的分類任務。
第一個 conv2d 將僅對圖像進行一點點下采樣,并生成大量通道,而第二個 conv2d 將對其進行大量下采樣(因為較大的 conv 過濾器跨過圖像),并且過濾器數量較少。
但是下采樣的行為,以獲得具有較少通道(過濾器)的較小圖像會立即導致信息丟失。因此建議逐步完成,以盡可能多地保留原始圖像中的信息。
然后它可以與其他 conv2d 堆疊以獲得分類前圖像的近似向量表示。
概括:
與該步驟中的第一個 conv2d 相比,第二個 conv2d 將能夠一次捕獲更大更復雜的模式。
第二個 conv2d 會從原始圖像中丟失更多信息,因為它會跳過來自更小和更簡單模式的特征。第一個 conv2d 將能夠捕獲圖像中的更多基本模式,并使用這些模式的組合(在堆疊的 Conv 層中)為您的最終任務構建一組更強大的功能。
與第一個 conv2d 相比,第二個 conv2d 需要更多的參數來學習圖像的結構。
在實踐中,建議使用具有較小過濾器的卷積層堆疊,以更好地檢測圖像中較大的更復雜的圖案。
添加回答
舉報