18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深層神經(jīng)網(wǎng)絡模型的訓練:過擬合優(yōu)化

電子設計 ? 來源:TOMORROW 星辰 ? 作者:TOMORROW 星辰 ? 2020-12-02 14:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

·過擬合(Overfitting)

深層神經(jīng)網(wǎng)絡模型的訓練過程,就是尋找一個模型能夠很好的擬合現(xiàn)有的數(shù)據(jù)(訓練集),同時能夠很好的預測未來的數(shù)據(jù)。

在訓練過程中由于模型建立的不恰當,往往所訓練得到的模型能夠?qū)τ柧毤臄?shù)據(jù)非常好的擬合,但是卻在預測未來的數(shù)據(jù)上表現(xiàn)得非常差,這種情況就叫做過擬合(Overfitting)。

為了訓練出高效可用的深層神經(jīng)網(wǎng)絡模型,在訓練時必須要避免過擬合的現(xiàn)象。過擬合現(xiàn)象的優(yōu)化方法通常有三種,分別是:正則化(Regulation),擴增訓練集(Data augmentation)以及提前停止迭代(Early stopping)。

·正則化(Regulation)

正則化方法是指在進行損失函數(shù)(costfunction)優(yōu)化時,在損失函數(shù)后面加上一個正則項。

正則化方法中目前常用的有兩種方法:L2 正則化和 Dropout 正則化。

L2 正則

L2 正則是基于 L2 范數(shù),即在函數(shù)后面加上參數(shù)的 L2 范數(shù)的平方,即:

其中J0是原損失函數(shù),m 表示數(shù)據(jù)集的大小。使用下式對參數(shù)進行更新:

其中,因此知道 w 在進行權重衰減。在神經(jīng)網(wǎng)絡中,當一個神經(jīng)元的權重越小時,那么該神經(jīng)元在神經(jīng)網(wǎng)絡中起到的作用就越小,當權重為 0 時,那么該神經(jīng)元就可以被神經(jīng)網(wǎng)絡剔除。而過擬合現(xiàn)象出現(xiàn)的原因之一就是,模型復雜度過高。那么,也就是說 L2 正則化后,權重會衰減,從而降低了模型的復雜度,從而一定程度上避免對數(shù)據(jù)過擬合。

隨機失活(Dropout)正則

其實 Dropout 的思路與 L2 的思路是一致的,都是降低模型的復雜度,從而避免過擬合。只是實現(xiàn)的方法有所不同。

Dropout 的做法是,在訓練過程中,按照一定的概率隨機的忽略掉一些神經(jīng)元,使其失活,從而就降低了模型的復雜度,提高了泛化的能力,一定程度上避免了過擬合。

常用的實現(xiàn)方法是 InvertedDropout。

使用 Dropout 的小技巧

·1、通常丟棄率控制在 20%~50%比較好,可以從 20%開始嘗試。如果比例太低則起不到效果,比例太高則會導致模型的欠學習。

·2、在大的網(wǎng)絡模型上應用。當 dropout 用在較大的網(wǎng)絡模型時更有可能得到效果的提升,模型有更多的機會學習到多種獨立的表征。

·3、在輸入層(可見層)和隱藏層都使用 dropout。在每層都應用 dropout 被證明會取得好的效果。

·4、增加學習率和沖量。把學習率擴大 10~100 倍,沖量值調(diào)高到 0.9~0.99.

·5、限制網(wǎng)絡模型的權重。大的學習率往往導致大的權重值。對網(wǎng)絡的權重值做最大范數(shù)正則化等方法被證明會提升效果。

·擴增訓練集(Data augmentation)

“有時候不是因為算法好贏了,而是因為擁有更多的數(shù)據(jù)才贏了?!?/p>

特別在深度學習中,更多的訓練數(shù)據(jù),意味著可以訓練更深的網(wǎng)絡,訓練出更好的模型。

然而很多時候,收集更多的數(shù)據(jù)并不那么容易,要付出很大的代價。那么,為了得到更多的訓練數(shù)據(jù),我們可以在原有的數(shù)據(jù)上做一些改動產(chǎn)生新的可用數(shù)據(jù),以圖片數(shù)據(jù)為例,將圖片水平翻轉,放大或者選擇一個小角度都可以得到新的圖片數(shù)據(jù)用于訓練。

雖然這樣的效果沒有全新的數(shù)據(jù)更加好,但是付出的代價卻是接近于零的。所以,很多情況下,這是一個非常好的數(shù)據(jù)擴增方法。

·提前停止迭代(Early stopping)

在訓練過程中繪制訓練集誤差函數(shù)的同時也繪制交叉驗證集的誤差。從下面的圖可以看出,訓練集誤差隨著迭代次數(shù)增加而不斷降低,而驗證集誤差卻是先降低后上升。很明顯,在這個模型中,我們希望驗證集誤差和訓練集誤差都盡量的小,那么最優(yōu)點就是在驗證集誤差的最低點,訓練應該在該點處停止,也就是選取該點處的權重值作為神經(jīng)網(wǎng)絡的參數(shù)。

但是這種優(yōu)化方法有很大的缺點。因為提前停止訓練,也就是停止優(yōu)化訓練集的誤差,通常情況下,在驗證集誤差達到最小值時,訓練集誤差還未處于一個足夠小的值。從而使得該模型雖然沒有出現(xiàn)過擬合現(xiàn)象,卻是出現(xiàn)了欠擬合的情況。當然,這種優(yōu)化方法還是有著表現(xiàn)優(yōu)異的使用場景的。
編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    無刷電機小波神經(jīng)網(wǎng)絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經(jīng)網(wǎng)絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網(wǎng)絡
    發(fā)表于 06-25 13:06

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型
    的頭像 發(fā)表于 06-03 15:51 ?739次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析

    如何優(yōu)化BP神經(jīng)網(wǎng)絡的學習率

    優(yōu)化BP神經(jīng)網(wǎng)絡的學習率是提高模型訓練效率和性能的關鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡學習率的方
    的頭像 發(fā)表于 02-12 15:51 ?1302次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?1295次閱讀

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    BP神經(jīng)網(wǎng)絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經(jīng)網(wǎng)絡的有效方法。以下是關于BP神經(jīng)網(wǎng)絡的反向傳播算法的介紹: 一、基本概念 反向傳播算
    的頭像 發(fā)表于 02-12 15:18 ?1091次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    ),是一種多層前饋神經(jīng)網(wǎng)絡,它通過反向傳播算法進行訓練。BP神經(jīng)網(wǎng)絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡權重,目的是最小化
    的頭像 發(fā)表于 02-12 15:15 ?1197次閱讀

    如何訓練BP神經(jīng)網(wǎng)絡模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡是一種經(jīng)典的人工神經(jīng)網(wǎng)絡模型,其訓練過程主要分為兩個階段:前向傳播和反向傳播。以下是訓練BP
    的頭像 發(fā)表于 02-12 15:10 ?1244次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    擬合的數(shù)學模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設計的。然而,數(shù)據(jù)科學中常用的神經(jīng)網(wǎng)絡作為大腦模型已經(jīng)過時
    的頭像 發(fā)表于 01-09 10:24 ?1817次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構方法

    卷積神經(jīng)網(wǎng)絡的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡因其在處理具有空間層次結構的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設置。參數(shù)調(diào)整是一個復雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡架構參數(shù) 卷積層
    的頭像 發(fā)表于 11-15 15:10 ?1656次閱讀

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    在深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常見的模型
    的頭像 發(fā)表于 11-15 14:53 ?2261次閱讀

    循環(huán)神經(jīng)網(wǎng)絡優(yōu)化技巧

    循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Networks,簡稱RNN)是一種用于處理序列數(shù)據(jù)的深度學習模型,它能夠捕捉時間序列中的動態(tài)特征。然而,RNN在訓練過程中可能會遇到梯度消失或梯度
    的頭像 發(fā)表于 11-15 09:51 ?1018次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發(fā)展,神經(jīng)網(wǎng)絡的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1811次閱讀

    如何優(yōu)化LSTM神經(jīng)網(wǎng)絡的性能

    LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠?qū)W習長期依賴關系,因此在序列數(shù)據(jù)處理中非常有效。然而,LSTM網(wǎng)絡訓練可能面臨梯度消失或爆炸的問題,需要采取特定的策略來優(yōu)化其性能。
    的頭像 發(fā)表于 11-13 10:09 ?2895次閱讀

    LSTM神經(jīng)網(wǎng)絡訓練數(shù)據(jù)準備方法

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡訓練數(shù)據(jù)準備方法是一個關鍵步驟,它直接影響到模型的性能和效果。以下是一些關于LSTM神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-13 10:08 ?2657次閱讀

    關于卷積神經(jīng)網(wǎng)絡,這些概念你厘清了么~

    。 圖2.一個小型神經(jīng)網(wǎng)絡 圖3.用CIFAR-10數(shù)據(jù)集訓練的CIFAR網(wǎng)絡模型 CIFAR-10是一個特定數(shù)據(jù)集,通常用于訓練
    發(fā)表于 10-24 13:56