我們知道神經(jīng)網(wǎng)絡的結構是這樣的:
那卷積神經(jīng)網(wǎng)絡跟它是什么關系呢?
其實卷積神經(jīng)網(wǎng)絡依舊是層級網(wǎng)絡,只是層的功能和形式做了變化,可以說是傳統(tǒng)神經(jīng)網(wǎng)絡的一個改進。比如下圖中就多了許多傳統(tǒng)神經(jīng)網(wǎng)絡沒有的層次。
卷積神經(jīng)網(wǎng)絡的層級結構
? 數(shù)據(jù)輸入層/ Input layer
? 卷積計算層/ CONV layer
? ReLU激勵層 / ReLU layer
? 池化層 / Pooling layer
? 全連接層 / FC layer
1.數(shù)據(jù)輸入層
該層要做的處理主要是對原始圖像數(shù)據(jù)進行預處理,其中包括:
? 去均值:把輸入數(shù)據(jù)各個維度都中心化為0
? 歸一化:幅度歸一化到同樣的范圍
? PCA/白化:用PCA降維;白化是對數(shù)據(jù)各個特征軸上的幅度歸一化
去均值與歸一化效果圖:
去相關與白化效果圖:
2.卷積計算層
這一層就是卷積神經(jīng)網(wǎng)絡最重要的一個層次,也是“卷積神經(jīng)網(wǎng)絡”的名字來源。
在這個卷積層,有兩個關鍵操作:
? 局部關聯(lián)。每個神經(jīng)元看做一個濾波器(filter)
? 窗口(receptive field)滑動, filter對局部數(shù)據(jù)計算
先介紹卷積層遇到的幾個名詞:
? 深度/depth(解釋見下圖)
? 步長/stride (窗口一次滑動的長度)
? 填充值/zero-padding