色欲合久久久无码中文字幕波多|中文字幕在线播放亚洲一区|日韩欧洲亚洲午夜久久久|国产中文字幕在线播放

http://www.51pingpong.com/news/show.php?itemid=35698
 
http://www.cdhaike.cn
http://www.51pingpong.com/file/upload/202112/07/16-14-00-42-1.gif
 
 
 
當(dāng)前位置: 首頁(yè) » 電子期刊 » 技術(shù)應(yīng)用 » 正文

基于深度學(xué)習(xí)的豬胴體圖像分級(jí)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)

韓宏宇 沈陽(yáng)工業(yè)大學(xué)信息科學(xué)與工程學(xué)院

      來(lái)源:《肉類產(chǎn)業(yè)資訊》    2021年第2期
 
內(nèi)容摘要:隨著科學(xué)技術(shù)的不斷發(fā)展,深度學(xué)習(xí)技術(shù)的應(yīng)用領(lǐng)域在不斷擴(kuò)大,與此相關(guān)的研究不斷深入,一些新的方法和理論也源源不斷的被提出來(lái)。深度學(xué)習(xí)技術(shù)的主要優(yōu)點(diǎn)表現(xiàn)為對(duì)復(fù)雜的分類問(wèn)題可以進(jìn)行更好的泛化分析處理。而在計(jì)算機(jī)處理復(fù)雜數(shù)據(jù)信息能力提高的形勢(shì)下,這種方法的優(yōu)勢(shì)開(kāi)始明顯的表現(xiàn)出來(lái),并且效果明顯好于支持向量機(jī)等淺層學(xué)習(xí)算法,深度學(xué)習(xí)技術(shù)是在傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)方法基礎(chǔ)上發(fā)展起來(lái)的,目前已經(jīng)形成了完整的理論,而在神經(jīng)網(wǎng)絡(luò)領(lǐng)域的發(fā)展下這種方法也在不斷發(fā)展。
  《續(xù)》 
  第2章 神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)

  隨著科學(xué)技術(shù)的不斷發(fā)展,深度學(xué)習(xí)技術(shù)的應(yīng)用領(lǐng)域在不斷擴(kuò)大,與此相關(guān)的研究不斷深入,一些新的方法和理論也源源不斷的被提出來(lái)。深度學(xué)習(xí)技術(shù)的主要優(yōu)點(diǎn)表現(xiàn)為對(duì)復(fù)雜的分類問(wèn)題可以進(jìn)行更好的泛化分析處理。而在計(jì)算機(jī)處理復(fù)雜數(shù)據(jù)信息能力提高的形勢(shì)下,這種方法的優(yōu)勢(shì)開(kāi)始明顯的表現(xiàn)出來(lái),并且效果明顯好于支持向量機(jī)等淺層學(xué)習(xí)算法,深度學(xué)習(xí)技術(shù)是在傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)方法基礎(chǔ)上發(fā)展起來(lái)的,目前已經(jīng)形成了完整的理論,而在神經(jīng)網(wǎng)絡(luò)領(lǐng)域的發(fā)展下這種方法也在不斷發(fā)展。卷積神經(jīng)網(wǎng)絡(luò)和神經(jīng)網(wǎng)絡(luò)技術(shù)存在著密切的關(guān)系,CNN的出現(xiàn)顯著擴(kuò)大了深度學(xué)習(xí)理論的應(yīng)用領(lǐng)域,目前CNN模型已經(jīng)可以模擬復(fù)雜的神經(jīng)元體系和網(wǎng)絡(luò),在探索神經(jīng)元與人體神經(jīng)元機(jī)理方面也表現(xiàn)出一定的應(yīng)用價(jià)值,為未來(lái)全面化的智能化發(fā)展奠定了良好的基礎(chǔ)。
  2.1 神經(jīng)網(wǎng)絡(luò)的原理
  神經(jīng)網(wǎng)絡(luò)中最基本的單元是神經(jīng)元,在神經(jīng)網(wǎng)絡(luò)的組成中,單個(gè)神經(jīng)元與其他部分神經(jīng)元相連,當(dāng)進(jìn)入興奮狀態(tài)時(shí)就可以向其連接的神經(jīng)元發(fā)送信號(hào),并且可以改變后者的電位;如果某神經(jīng)元的電位高于閾值,則會(huì)處于興奮狀態(tài)并向與其連接的神經(jīng)元發(fā)送信號(hào),實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)中信號(hào)的傳播。1943年生物學(xué)家McCulloch利用模型對(duì)神經(jīng)元的這種特性進(jìn)行了研究,在其建立的模型中,神經(jīng)元接收到來(lái)自n個(gè)其他神經(jīng)元發(fā)送的信號(hào),這些輸入的信號(hào)根據(jù)一定的權(quán)重進(jìn)行連接和傳遞,然后對(duì)比閾值和神經(jīng)元接收到的總輸入值,通過(guò)“激活函數(shù)”處理而輸出信號(hào)。
  如圖2.1所示,這是一個(gè)簡(jiǎn)化的人工神經(jīng)元,其具有多個(gè)輸入信號(hào),而經(jīng)過(guò)神經(jīng)元處理后,將發(fā)出一個(gè)判斷結(jié)果(表示其通過(guò)輸入信號(hào)產(chǎn)生的“興奮”程度)表現(xiàn)出多輸入單輸出的特征。

圖 2.1  單個(gè)神經(jīng)元
  對(duì)應(yīng)的公式如(2.1):
   (2.1)
  這種模型也就是Logistic回歸模型,一定數(shù)量的單元通過(guò)這種模式組合起來(lái)而形成分層結(jié)構(gòu),就會(huì)得到所需的神經(jīng)網(wǎng)絡(luò)模型。感知機(jī)中包含了兩層神經(jīng)元,其中輸出層是M-P神經(jīng)元,可以接收輸入層發(fā)送的信號(hào)。根據(jù)實(shí)際使用結(jié)果表明,這種只擁有一層功能神經(jīng)元的感知機(jī)可以方便地實(shí)現(xiàn)邏輯與、或、非運(yùn)算。在處理過(guò)程中學(xué)習(xí)能力較弱的原因主要和其神經(jīng)元層數(shù)不多有關(guān)。感知機(jī)雖然結(jié)構(gòu)簡(jiǎn)單,但是其重要的性能之一就是可分辨輸出信號(hào),且可以促進(jìn)相應(yīng)信號(hào)的傳遞和反饋,因而表現(xiàn)出很高的應(yīng)用價(jià)值。
  多個(gè)神經(jīng)元相互之間構(gòu)成神經(jīng)網(wǎng)絡(luò),且網(wǎng)絡(luò)中神經(jīng)元之間保持了一定的非線性相關(guān)關(guān)系。具有多層功能的神經(jīng)元可以用來(lái)進(jìn)行復(fù)雜問(wèn)題的求解,例如在異構(gòu)問(wèn)題的求解過(guò)程中,簡(jiǎn)單的兩層感知機(jī)就可以滿足要求。在更復(fù)雜問(wèn)題的處理過(guò)程中先要梳理清楚神經(jīng)元的脈絡(luò),然后確定相應(yīng)的輸入輸出關(guān)系。對(duì)于問(wèn)題的進(jìn)一步復(fù)雜化,對(duì)神經(jīng)元的需求更大,故產(chǎn)生了在輸入層與輸出層之間添加一層或多層神經(jīng)元的關(guān)系模型。這種關(guān)系模型中中間添加的神經(jīng)元叫做隱含層,隱含層和輸出層神經(jīng)元和激活函數(shù)存在一定的相關(guān)性。具有一個(gè)隱含層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2.2所示。

圖2.2  簡(jiǎn)單的多層網(wǎng)絡(luò)模型
  其表達(dá)式如(2.2):
  hw,b(x)=a1(3)=f(w11(2)a1(2)+w12(2)a2(2)+w13(2)a3(2)+b1(2) )   (2.2)
  其中 a1(2)、a2(2)如以下兩式所示:
  a1(2)=f(w11(1)X1+w12(1)x2+w13(1)x3+b1(1))                               (2.3)
  a2(2)=f(w21(1)x1+w22(1)X2+w23(1)X3+b2(1)                               (2.4)
  據(jù)上文類推,可以進(jìn)一步實(shí)現(xiàn)包含很多隱含層的網(wǎng)絡(luò)模型。
  2.2 卷積神經(jīng)網(wǎng)絡(luò)
  深度學(xué)習(xí)是在人工神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上發(fā)展探索而來(lái)的,目前在很多領(lǐng)域得到廣泛的應(yīng)用。這種技術(shù)可以對(duì)低層特征進(jìn)行組合,進(jìn)而確定出相應(yīng)的分布特征,從而在此基礎(chǔ)上建立起復(fù)雜的屬性類別。這種學(xué)習(xí)可以具體劃分為監(jiān)督學(xué)習(xí)方法和無(wú)監(jiān)督學(xué)習(xí)方法兩類,第一種學(xué)習(xí)方法的學(xué)習(xí)性能更高但可能存在一些局限性。深度學(xué)習(xí)模型有很多類型,常見(jiàn)的如卷積神經(jīng)網(wǎng)絡(luò)、深度置信網(wǎng)絡(luò)、和堆棧自編碼網(wǎng)絡(luò)等。其中目前應(yīng)用頻率最高的為卷積神經(jīng)網(wǎng)絡(luò)(CNN),這種網(wǎng)絡(luò)最早是為識(shí)別圖片中的物體形狀而設(shè)計(jì)的,網(wǎng)絡(luò)結(jié)構(gòu)的主要特點(diǎn)表現(xiàn)為對(duì)圖片平移、比例縮放等操作可以保持特征不變。CNN網(wǎng)絡(luò)模型是在傳統(tǒng)的概念模型基礎(chǔ)上發(fā)展起來(lái)的。早在1962年威爾斯進(jìn)行了貓視覺(jué)皮層細(xì)胞的研究,分析并構(gòu)建出了相應(yīng)的模型;而到80年代日本學(xué)者斯科特從感受野概念進(jìn)行發(fā)展,提出了神經(jīng)認(rèn)知機(jī)模型的概念,隨后與此相關(guān)的模型也不斷的被建立起來(lái)。
  2.2.1 CNN的基本思想
  卷積神經(jīng)網(wǎng)絡(luò)(CNN)是對(duì)貓大腦中視覺(jué)皮層的結(jié)構(gòu)研究改進(jìn)而發(fā)展起來(lái)的,可以將其看作為基于監(jiān)督學(xué)習(xí)的深層神經(jīng)網(wǎng)絡(luò)中的一類,其特點(diǎn)是可以實(shí)現(xiàn)以下兩方面的功能:一是稀疏連接;二是權(quán)值共享是指在CNN網(wǎng)絡(luò)中一些神經(jīng)元連接的權(quán)重是可以共享的。在這些功能的促進(jìn)作用下,卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)也表現(xiàn)出復(fù)雜的特征,和實(shí)際的生物神經(jīng)網(wǎng)絡(luò)產(chǎn)生了很高的相似性。由于權(quán)值共享,網(wǎng)絡(luò)中大大減少了權(quán)值數(shù)量,與此同時(shí)相應(yīng)的網(wǎng)絡(luò)模型的復(fù)雜度也明顯的降低。另外,CNN對(duì)多維圖像也有很好的處理效果,圖像可以直接作為網(wǎng)絡(luò)的輸入,這樣就不存在相應(yīng)的特征提取問(wèn)題,處理過(guò)程也明顯的簡(jiǎn)化。由于卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)與特點(diǎn)和生物神經(jīng)網(wǎng)絡(luò)的高度類似,其在語(yǔ)音、圖像及語(yǔ)義等領(lǐng)域的識(shí)別功能方面較相關(guān)傳統(tǒng)方法表現(xiàn)出了很大的優(yōu)勢(shì)。
  卷積神經(jīng)網(wǎng)絡(luò)與普通神經(jīng)網(wǎng)絡(luò)有明顯的差異,具體表現(xiàn)為前者包含了卷積層和子采樣層構(gòu)成的特征抽取器。在卷積神經(jīng)網(wǎng)絡(luò)的卷積層中,一個(gè)神經(jīng)元連接的鄰層神經(jīng)元數(shù)量是有限的。在CNN結(jié)構(gòu)對(duì)應(yīng)的卷積層中,一般會(huì)存在很多的特征平面,而各平面中包含很多的神經(jīng)元,在同一個(gè)平面中神經(jīng)元可以共享權(quán)值,這就是卷積核。卷積核在初始化時(shí)一般選擇小數(shù)矩陣模式,在訓(xùn)練過(guò)程中,卷積核可以得到一定優(yōu)化的權(quán)值。共享權(quán)值的優(yōu)點(diǎn)表現(xiàn)為可以明顯的降低網(wǎng)絡(luò)各層之間的連接,并合理的控制擬合水平。
  卷積神經(jīng)網(wǎng)絡(luò)具體劃分為三部分,分別是輸入層、卷積層和池化層,以及對(duì)應(yīng)的感知機(jī)分類器,網(wǎng)絡(luò)在進(jìn)行特征提取過(guò)程中,要用到相應(yīng)的卷積層和子釆樣層。為了提高網(wǎng)絡(luò)識(shí)別的精度,一般要進(jìn)行誤差梯度設(shè)計(jì)和一定的迭代操作。以下為卷積神經(jīng)網(wǎng)絡(luò)的三個(gè)主要特點(diǎn)。
 ?。?)局部區(qū)域感知
  在卷積神經(jīng)網(wǎng)絡(luò)中,輸入一定量的采樣數(shù)據(jù)之后,網(wǎng)絡(luò)將圖像按像素點(diǎn)的灰度值進(jìn)行處理,輸入的數(shù)據(jù)會(huì)被劃分成較小的局部區(qū)域,然后在這些小區(qū)域中提取圖像的原始視覺(jué)特征。這類特征的種類主要包括物體的特殊點(diǎn)、邊緣以及拐角等,可以根據(jù)這些特征進(jìn)行圖形識(shí)別。卷積神經(jīng)網(wǎng)絡(luò)將圖片特征處理轉(zhuǎn)化為信號(hào)時(shí),這種網(wǎng)絡(luò)的其他層對(duì)這些初級(jí)特征進(jìn)行組合處理,確定出一些復(fù)雜的高層的特征。兩層之間在連接過(guò)程中采用了局部連接方式,在這樣的連接模式下,相鄰每一層的神經(jīng)元節(jié)點(diǎn)將僅其臨近的上層神經(jīng)元節(jié)點(diǎn)連接,這樣網(wǎng)絡(luò)的參數(shù)規(guī)模大幅度的降低,對(duì)進(jìn)一步研究和學(xué)習(xí)概念構(gòu)建過(guò)程提供了可靠的支持。局部感知野是卷積神經(jīng)網(wǎng)絡(luò)降低網(wǎng)絡(luò)參數(shù)數(shù)量的主要工具之一。通常情況下圖像局部的像素聯(lián)系較為緊密,兩個(gè)像素間的距離較遠(yuǎn),則其對(duì)應(yīng)的相關(guān)性則較弱。在此情況下各神經(jīng)元在識(shí)別過(guò)程中,可以不必對(duì)全局圖像進(jìn)行感知,對(duì)小范圍的圖像局部感知之后,更高層將局部的信息進(jìn)行綜合而確定出總體的信息。網(wǎng)絡(luò)部分的連通模型也是基于視覺(jué)系統(tǒng)結(jié)構(gòu)而形成的,而這種模式下,利用單個(gè)神經(jīng)元連接少數(shù)像素值的方法,令神經(jīng)元可以高效的接受局部的信息,且在工作過(guò)程中只對(duì)某些特定區(qū)域的刺激進(jìn)行響應(yīng)。在此連接模式下相應(yīng)的權(quán)值數(shù)據(jù)明顯低于傳統(tǒng)方法的權(quán)重?cái)?shù)據(jù)量,而這種操作也稱為卷積操作。
  需要對(duì)一個(gè)大尺寸圖像進(jìn)行特征提取時(shí),先對(duì)此圖像進(jìn)行區(qū)域劃分,而得到一定數(shù)量的小區(qū)域,選擇其中一個(gè)8×8尺寸的小圖像作為樣本,利用其圖像進(jìn)行學(xué)習(xí),發(fā)現(xiàn)圖像的特征信息,利用在此基礎(chǔ)上學(xué)習(xí)到的特征作為探測(cè)器,然后在其他的區(qū)域通過(guò)此探測(cè)器進(jìn)行處理。整體大尺寸圖像通過(guò)小圖像所得的特征進(jìn)行遍歷,通過(guò)卷積對(duì)圖像各個(gè)部位進(jìn)行運(yùn)算而確定出對(duì)應(yīng)的特征激活值。
  如圖2.3所示,此圖反映了利用尺寸為3×3的卷積核對(duì)尺寸為5×5的圖像進(jìn)行卷積運(yùn)算的原理,特征提取方法和各個(gè)獨(dú)立的卷積運(yùn)算是一一對(duì)應(yīng)的關(guān)系,利用卷積運(yùn)算可以將圖像中符合條件的區(qū)域通過(guò)此特征篩選出來(lái)。

圖2.3  卷積運(yùn)算原理
 ?。?)權(quán)重共享
  在某些應(yīng)用情況中,在經(jīng)過(guò)局部感知后存在參數(shù)仍然過(guò)多的情況。針對(duì)這些情況通過(guò)權(quán)值共享的方法進(jìn)一步地降低參數(shù)量。在局部連接過(guò)程中,假定每個(gè)神經(jīng)元對(duì)應(yīng)了一百個(gè)參數(shù),神經(jīng)元總數(shù)為106個(gè),導(dǎo)致系統(tǒng)中總的參數(shù)量十分巨大;若這些神經(jīng)元的參數(shù)保持一致,則網(wǎng)絡(luò)中的參數(shù)量將極為顯著地縮減。
  權(quán)值共享處理過(guò)程中,將一百種對(duì)應(yīng)不同卷積核的卷積操作對(duì)應(yīng)于特征的提取,而這種操作和位置。在此過(guò)程中依據(jù)如下原理,圖像的某些部分的統(tǒng)計(jì)學(xué)特性與其他部分不存在差異,可以對(duì)不同部分學(xué)習(xí)的特征進(jìn)行共享。而在第一層的卷積神經(jīng)網(wǎng)絡(luò)后,下一層網(wǎng)絡(luò)中的神經(jīng)元數(shù)量明顯的減少,相應(yīng)的運(yùn)算量也大幅度減少,可以通過(guò)權(quán)重一樣的特征來(lái)有效的降低運(yùn)算量,其中各圖像上的位置應(yīng)用到的學(xué)習(xí)特征也保持一致。
  在卷積神經(jīng)網(wǎng)絡(luò)處理圖像的過(guò)程中,各卷積濾波器重復(fù)的處理輸入的數(shù)據(jù),對(duì)全部輸入圖像內(nèi)容進(jìn)行卷積。所得結(jié)果進(jìn)行處理之后就可以確定出輸入圖像的特征圖,從而提取出目標(biāo)圖像的特征信息。而在此處理過(guò)程中,各卷積濾波器對(duì)其中的一些偏置項(xiàng)共享,在輸出后輸入圖像的平移變化保持一致,這樣既可以使權(quán)重共享大幅減少,還可以明顯的減少訓(xùn)練樣本的需求,為圖像處理提供了便利。
 ?。?)子采樣
  CNN的主要組成架構(gòu)之一為子采樣。在卷積神經(jīng)運(yùn)行期間,一般要先進(jìn)行子采樣,再進(jìn)一步劃分為均值子采樣和最大值子采樣兩類,兩種子采樣方法下文會(huì)詳細(xì)介紹。子采樣過(guò)程中要進(jìn)行一定的卷積操作,通過(guò)這種采樣可以明顯的降低模型復(fù)雜度,提高運(yùn)算效率。
  在獲取圖像的卷積特征后,通過(guò)相關(guān)方法對(duì)卷積特征降維處理,在此過(guò)程中要用到子采樣的方法。將卷積特征劃分為一定數(shù)量的不相交區(qū)域,然后通過(guò)所得區(qū)域的均值特征來(lái)反映處理后的卷積特征。根據(jù)過(guò)往的研究表明,這些降維后的特征分類難度明顯的降低,分類過(guò)程也相應(yīng)的簡(jiǎn)化了。子采樣有2個(gè)優(yōu)點(diǎn):可以大幅度的降低運(yùn)算量,采樣單元具有平移不變性,在此情況下即使出現(xiàn)了一定的平移,提取到的特征沒(méi)有變化,其對(duì)應(yīng)位移的敏感性降低,因而子采樣是一種常用的降低數(shù)據(jù)維度的采樣方法。
  2.2.2  CNN的整體網(wǎng)絡(luò)結(jié)構(gòu)
  多層CNN網(wǎng)絡(luò)的結(jié)構(gòu)隨著不斷發(fā)展,復(fù)雜程度也在不斷提升,其中主要包括有很多可支持池化運(yùn)算的卷積層和一定數(shù)量的全連接層,其常見(jiàn)的的結(jié)構(gòu)如 AlexNet,其結(jié)構(gòu)如圖 2.4所示。

圖2.4  AlexNet網(wǎng)絡(luò)結(jié)構(gòu)
  由圖2.4可知,卷積神經(jīng)網(wǎng)絡(luò)可以在卷積處理基礎(chǔ)上得到一定數(shù)量的不同特征,而在子采樣基礎(chǔ)上降低數(shù)據(jù)維度,接著在一定的組合模式下而得到更加抽象的特征,然后利用全連接層描述圖像的特征。整個(gè)網(wǎng)絡(luò)構(gòu)建原理具體如下:
 ?。?)卷積層的構(gòu)建原理
  卷積層包含了一定數(shù)量的特征域,其中的各個(gè)域包含了相同連接權(quán)重的神經(jīng)元,且其中的各神經(jīng)元對(duì)應(yīng)的感受野數(shù)量也保持一致,這些神經(jīng)元在工作中只接收其感受野傳輸?shù)男盘?hào)。具體情況見(jiàn)圖2.4,在前一層的特征圖和相應(yīng)的卷積核進(jìn)行卷積處理,將所得結(jié)果通過(guò)激活函數(shù)后輸出,在此處理過(guò)程中對(duì)應(yīng)的卷積表達(dá)式如下:
  (2.3)
  其中:Oij 表示第i層的第j個(gè)特征圖,此特征圖的元素為Oij(x,y),而其偏置為bij;Wijk是則具體表示了Oij和O(i-1)j的卷積核;此卷積層的行數(shù)和列數(shù)分別為Ri和Ci。在以上卷積運(yùn)算過(guò)程中,若第(i-1)層的特征圖表示為n1×n2,卷積核為l1×l2,而在以上卷積運(yùn)算處理后,可確定出第i層特征圖的大小,具體表示為(n1-l1+1)×(n2-l2+1)。
  (2)采樣層的構(gòu)建原理
  在確定采樣層過(guò)程中,需要通過(guò)上一層的相鄰小區(qū)域進(jìn)行聚合操作,在進(jìn)行處理時(shí),設(shè)采樣區(qū)域具體表示為 l1×l2,具體采樣算法表示如下:
  (2.4)
  其中g(shù)ij表示Oij增益系數(shù)。
  在以上卷積處理基礎(chǔ)上得到對(duì)應(yīng)的特征信息,接著利用特征信息進(jìn)行分類。理論上全部提取的特征都可以用于訓(xùn)練分類器,但這樣處理的難度很高,主要困難在于計(jì)算量很龐大,如對(duì)一個(gè)96×96像素的圖像,在以上卷積運(yùn)算基礎(chǔ)上得到400個(gè)定義在8×8尺寸圖像輸入上的特征,則對(duì)其中的一個(gè)特征和圖像卷積處理就可以確定出7921維的卷積特征,而在四百個(gè)特征情況下,對(duì)應(yīng)的卷積特征向量就超過(guò)了3百萬(wàn)特征輸入,這樣大量的數(shù)據(jù)很不方便訓(xùn)練,且容易導(dǎo)致過(guò)擬合問(wèn)題。
  為了解決卷積過(guò)程過(guò)量數(shù)據(jù)的問(wèn)題,CNN網(wǎng)絡(luò)采用了池化(子采樣)的方法。由于使用卷積后的特征是圖像表現(xiàn)出“靜態(tài)性”的屬性,在此情況下圖像不同區(qū)域的特征可以進(jìn)行共享。為了描述大的圖像,可以對(duì)圖像的不同位置的特征進(jìn)行聚合。通過(guò)確定出圖像某區(qū)域相關(guān)特征的平均值,使此類特征對(duì)應(yīng)的維度大幅度降低,這種方法可以有效地改善結(jié)果數(shù)據(jù)含量過(guò)大的情況。這種聚合稱之為池化,這種處理在圖像特征識(shí)別中也經(jīng)常用到。
  子采樣可以總體上劃分為均值子采樣和最大值子采樣兩類,其都和相應(yīng)的卷積過(guò)程保持對(duì)應(yīng),具體情況如圖2.5所示。
  具體兩種子采樣方法的描述如下:
  1)均值子采樣的卷積核相應(yīng)的權(quán)重保持一致,都是0.25,卷積核的平移步長(zhǎng)為2。這樣處理后可以降低原圖模糊度。
  2)最大值子采樣的卷積核對(duì)應(yīng)的權(quán)重有兩個(gè),分別為1和0,其中1對(duì)應(yīng)于輸入X被卷積核覆蓋部分值最大的位置,而在輸出X上的步長(zhǎng)為2,這樣處理的效果也就是將原圖縮減至原來(lái)的四分之一。

圖2.5  兩種不同的子采樣方法
  (3)分類層的構(gòu)建
  在網(wǎng)絡(luò)模型的最后設(shè)置一個(gè)或多個(gè)全連接層用于連接各個(gè)特征實(shí)現(xiàn)分類,可以連接圖像和輸出層的各分類,而在激勵(lì)時(shí)一般用到softmax回歸函數(shù),可以在此基礎(chǔ)上確定出分類層。
  2.2.3 CNN的訓(xùn)練方法
  卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程具體如下:
  (1)前向傳播階段
  先隨機(jī)的抽取相應(yīng)的樣本(Xi,Yi),將 Xi輸入網(wǎng)絡(luò),然后通過(guò)一定方法不斷地進(jìn)行變換處理,而促使信息傳送到輸出層,所得輸出結(jié)果具體如下:
  Oi=Fn(Fn-1(...F2(F1(Xiw(1)+b(1))w(2)+b(2))...)w(n)+b(n))    (2.5)
  其中w(n)表示第n層的權(quán)值,b(n)和Fn()則分別表示此層相應(yīng)的分值和激活函數(shù)。
  這種卷積表現(xiàn)出valid特征,其處理過(guò)程中,對(duì)應(yīng)的卷積核W覆蓋在輸入圖input X上,然后將一定運(yùn)算所得結(jié)果賦給輸出圖相關(guān)的位置,之后不斷的進(jìn)行移動(dòng)操作,每次卷積核在輸入X上移動(dòng)一個(gè)位置,根據(jù)一定的順序進(jìn)行遍歷可以確定輸出矩陣Y。在此過(guò)程中如果卷積核的輸入圖大小和卷積核可以確定,則可以打出輸出圖,比如前二者的尺寸分別為Mx×Nx及Mw×Nw,相應(yīng)輸出的Y為對(duì)應(yīng)項(xiàng)相減的乘積。

圖2.6  前向傳播示意圖
 ?。?)后向傳播階段
  后向傳播過(guò)程中相應(yīng)的誤差可以同步地進(jìn)行傳播,根據(jù)前文所述理論分析可知,該網(wǎng)絡(luò)中誤差的反向傳播可劃分為輸出層和隱層兩部分,相應(yīng)計(jì)算方法具體表示如(2.6)、(2.7)所示:
         (2.6)
  E/Oik=Oik-Tik       (2.7)
  其中Ei是第i個(gè)樣本的誤差;Tik是第i個(gè)樣本輸出層第k個(gè)神經(jīng)元的期望輸出。對(duì)此層的特征進(jìn)行分析可以看出,隱層誤差的反向傳播可以具體劃分為子采樣層和卷積層的這兩個(gè)過(guò)程,相應(yīng)誤差的信號(hào)信息保持不變,可以對(duì)相應(yīng)的兩個(gè)層的誤差進(jìn)行計(jì)算,可以據(jù)此確定出對(duì)應(yīng)層神經(jīng)元的輸出、增益相關(guān)數(shù)值,并根據(jù)所得結(jié)果來(lái)調(diào)整增益和偏置,然后對(duì)數(shù)據(jù)量的變化進(jìn)行觀察和分析,進(jìn)一步確定出相應(yīng)的誤差傳輸作用機(jī)理,為圖像處理提供支持。
  通過(guò)信號(hào)跟蹤和數(shù)據(jù)比較,可以發(fā)現(xiàn)如下事實(shí):在誤差反向傳播期間,先在一定運(yùn)算處理的基礎(chǔ)上確定出尾部分類器中各神經(jīng)元的誤差信號(hào),然后將此信號(hào)傳遞到特征抽取器;在這兩個(gè)特征圖的傳播過(guò)程中要進(jìn)行相應(yīng)的full卷積操作。雖然誤差的處理結(jié)果和卷積層的神經(jīng)網(wǎng)絡(luò)的性能密切相關(guān),但是并不能區(qū)分識(shí)別。在識(shí)別過(guò)程中,此處的卷積和上一節(jié)卷積的處理流程有一定差異。那么由此可作為突破點(diǎn),進(jìn)一步分析運(yùn)算即可發(fā)現(xiàn),如果卷積核W 的長(zhǎng)度為Mw×Mw,則對(duì)應(yīng)的子特征誤差矩陣 Q_err需要向一定方向移動(dòng)Mw-1行或列,對(duì)應(yīng)的卷積核也需要進(jìn)行一定角度的旋轉(zhuǎn),對(duì)應(yīng)的誤差信號(hào)矩陣P_err和Q_err存在一定的變換關(guān)系。
  圖2.7中矩陣Q_err中的A是因?yàn)镻中左上方塊的運(yùn)算而得到的,此小方塊對(duì)A進(jìn)行了卷積處理,可通過(guò)W表示。而誤差信號(hào)A通過(guò)卷積核將誤差信號(hào)發(fā)送到對(duì)應(yīng)的神經(jīng)元a、b、d、e中,可以根據(jù)類似的過(guò)程確定出錯(cuò)誤信號(hào)B、C、D的反向傳播情況,此誤差傳播過(guò)程可用卷積過(guò)程表示,具體情況如圖2.7所示。

圖2.7  后向傳播示意圖
  2.3 本章小結(jié)
  本章從單個(gè)神經(jīng)元模型入手,簡(jiǎn)要介紹了人工神經(jīng)元結(jié)構(gòu)和含隱層的多層網(wǎng)絡(luò)的基本概念,并著重介紹了卷積神經(jīng)網(wǎng)絡(luò)(CNN)的特點(diǎn)、結(jié)構(gòu)和訓(xùn)練過(guò)程。以近年來(lái)廣泛應(yīng)用的 AlexNet 模型為例,詳細(xì)說(shuō)明了卷積神經(jīng)網(wǎng)絡(luò)中卷積層、池化層和采樣層的原理及網(wǎng)絡(luò)訓(xùn)練中的前向傳播和后向傳播。
  《未完待續(xù)》
 
http://www.51pingpong.com/news/show.php?itemid=34711
 
關(guān)注"肉食界"微信公眾號(hào)
專注肉類縱橫資源,服務(wù)于肉類全產(chǎn)業(yè)鏈的信息“復(fù)興號(hào)”
[ ]  [ 打印 ]  [ 投稿 ]  [ 關(guān)閉 ]  [ 評(píng)論 ]  [ 返回頂部
 
 
版權(quán)聲明:

1. 轉(zhuǎn)載本網(wǎng)內(nèi)容,請(qǐng)注明來(lái)源“中國(guó)肉類機(jī)械網(wǎng)”,或與本網(wǎng)聯(lián)系,違者將追究法律責(zé)任。

2.本網(wǎng)轉(zhuǎn)載刊登的文章以信息傳播為目的,僅代表作者個(gè)人觀點(diǎn),版權(quán)由原作者或供稿方所擁有,并不構(gòu)成投資建議,據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。

3. 如果轉(zhuǎn)載文章涉及您的合法權(quán)益和版權(quán)問(wèn)題,或者轉(zhuǎn)載出處出現(xiàn)錯(cuò)誤,請(qǐng)及時(shí)與本網(wǎng)聯(lián)系進(jìn)行刪除。

4. 友情提醒:網(wǎng)上交易有風(fēng)險(xiǎn),請(qǐng)買賣雙方謹(jǐn)慎交易,謹(jǐn)防上當(dāng)受騙!

5. 投稿與合作熱線:010-88133989, E-mail:mpmpc@126.com


 
 
 
熱點(diǎn)推薦
新聞排行
 
×關(guān)閉
http://www.xinglongjixie.com/
×關(guān)閉
http://www.51pingpong.com/news/show.php?itemid=32033