一、構(gòu)建算法的推薦步驟
當(dāng)我們遇到一個問題,比如預(yù)測房價,我們想要用機(jī)器學(xué)習(xí)算法來更好的解決這個問題,推薦的步驟如下:
1.1 實(shí)現(xiàn)一個簡單的算法
建議先花點(diǎn)時間實(shí)現(xiàn)一個簡單能用的算法,比如線性回歸預(yù)測房價,不需要一開始就花很多時間設(shè)計復(fù)雜的算法(在軟件開發(fā)中叫避免過早優(yōu)化)
你可以先實(shí)現(xiàn)能用的算法,然后利用上篇文章從 0 開始機(jī)器學(xué)習(xí) - 機(jī)器學(xué)習(xí)算法診斷中的學(xué)習(xí)曲線等診斷法來分析算法的優(yōu)化方向,這樣一個簡單的算法就成為了優(yōu)化問題的好工具!
1.2 分析學(xué)習(xí)曲線
有個簡單的算法后,我們就可以畫出學(xué)習(xí)曲線了,然后就可以決定下一步到底要往哪個方向做優(yōu)化:
獲得更多的訓(xùn)練樣本
嘗試減少特征的數(shù)量
嘗試獲得更多的特征
嘗試增加多項(xiàng)式特征
嘗試減少正則化程度
嘗試增加正則化程度
...
1.3 誤差分析
假如我們有多個方向可以作為優(yōu)化的方向,比如以下的方向都可以解決模型的高方差問題:
獲得更多的訓(xùn)練樣本 - 適用于高方差的模型
嘗試減少特征的數(shù)量 - 適用于高方差的模型
嘗試增加正則化程度 - 適用于高方差的模型
那我們又如何來評估每種方法的性能到底提升多少呢?或者說有沒有一種直接的指標(biāo)來告訴我,使用了這樣一種優(yōu)化措施后我的算法性能到底提高了多少百分比?
今天就來看看如何分析機(jī)器學(xué)習(xí)算法的誤差。
二、機(jī)器學(xué)習(xí)算法誤差分析
2.1 偏斜類問題
在介紹誤差分析指標(biāo)前,先來了解一個偏斜類問題:
訓(xùn)練集中有非常多同一類的樣本,只有很少或者沒有其他類的樣本,這樣的訓(xùn)練樣本稱為偏斜類。
比如預(yù)測癌癥是否惡性的 100 個樣本中:95 個是良性的腫瘤,5 個惡性的腫瘤,假設(shè)我們在這個樣本上對比以下 2 種分類算法的百分比準(zhǔn)確度,即分類錯誤的百分比:
普通非機(jī)器學(xué)習(xí)算法:人為把所有的樣本都預(yù)測為良性,則分錯了 5 個惡性的樣本,錯誤率為 5 / 100 = 0.05 = 5%
神經(jīng)網(wǎng)絡(luò)算法:訓(xùn)練后預(yù)測 100 個樣本,把 10 個良性的樣本誤分類為惡性的樣本,錯誤率為 10 / 100 = 10%
如果僅僅從錯誤率大小來判斷算法的優(yōu)劣是不合適的,因?yàn)榈谝环N人為設(shè)置樣本都為良性的算法不會在實(shí)際項(xiàng)目中使用,但是通過指標(biāo)卻發(fā)現(xiàn)效果比神經(jīng)網(wǎng)絡(luò)還要好,這肯定是有問題的。
正是因?yàn)榇嬖谶@么一種偏斜類的訓(xùn)練樣本,所以我們需要用一個更加一般性的算法準(zhǔn)確度評價指標(biāo),以此適用與任何類型的樣本,解決上面那種荒唐的結(jié)論。
2.2 查準(zhǔn)率與查全率
為了解決這個問題,使用查準(zhǔn)率(Precision)和查全率(Recall)這 2 個誤差指標(biāo),為了計算這 2 者,我們需要把算法預(yù)測的結(jié)果分為以下 4 種:
正確肯定(True Positive,TP):預(yù)測為真,實(shí)際為真
正確否定(True Negative,TN):預(yù)測為假,實(shí)際為假
錯誤肯定(False Positive,F(xiàn)P):預(yù)測為真,實(shí)際為假
錯誤否定(False Negative,F(xiàn)N):預(yù)測為假,實(shí)際為真
把這 4 個寫到表格里面:
| Positive | Negative | |
| Positive | TP | FN |
| Negative | FP | TN |
| 實(shí)際值 預(yù)測值 |
|---|
然后我們就可以定義這 2 個指標(biāo)啦:
查準(zhǔn)率 = TP / (TP + FP):預(yù)測為真(惡性腫瘤)的情況中,實(shí)際為真(惡性腫瘤)的比例,越高越好
查全率 = TP / (TP + FN):實(shí)際為真(惡性腫瘤)的情況中,預(yù)測為真(惡性腫瘤)的比例,越高越好
有了這 2 個指標(biāo)我們再來分析下上面的算法性能,第一個人為的算法認(rèn)為所有的腫瘤都是良性的,也就等價于原樣本中 5 個惡性的腫瘤樣本一個都沒有預(yù)測成功,也即所有惡性腫瘤樣本,該算法成功預(yù)測惡性腫瘤的比例為 0,所以查全率為 0,這說明該算法的效果并不好。
2.3 查準(zhǔn)率與查全率的整合
在實(shí)際的使用中,查準(zhǔn)率和查全率往往不能很好的權(quán)衡,要想保持兩者都很高不太容易,通過使用以下的公式來整合這 2 個評價指標(biāo)可以幫助我們直接看出一個算法的性能優(yōu)劣:
以后評價一個算法的性能直接比較 F1 Score 即可,這就大大方便了我們對比算法的性能。
三、機(jī)器學(xué)習(xí)的樣本規(guī)模
除了評價指標(biāo),還有一個要關(guān)心的問題就是樣本的規(guī)模,在機(jī)器學(xué)習(xí)領(lǐng)域有一句話:「取得成功的人不是擁有最好算法的人,而是擁有最多數(shù)據(jù)的人」
這句話的意思就是說當(dāng)我們擁有非常多的數(shù)據(jù)時,選擇什么樣的算法不是最最重要的,一些在小樣本上表現(xiàn)不好的算法,經(jīng)過大樣本的訓(xùn)練往往也能表現(xiàn)良好。
比如下面這 4 種算法在很大樣本上訓(xùn)練后的效果相差不是很大,但是在小樣本時有挺大差距:

但在實(shí)際的機(jī)器學(xué)習(xí)算法中,為了能夠使得訓(xùn)練數(shù)據(jù)發(fā)揮最大效用,我們往往會選一個比較好的模型(不太容易欠擬合,比如神經(jīng)網(wǎng)絡(luò)),再加上很多的樣本數(shù)據(jù)(防止過擬合)
通過這 2 者就可以讓一個算法變的很強(qiáng)大,所以以后當(dāng)你設(shè)計機(jī)器學(xué)習(xí)算法的時候一定要考慮自己的樣本規(guī)模,選擇合適的模型適應(yīng)你的數(shù)據(jù),如果你有很多很多的數(shù)據(jù),那么可以選擇復(fù)雜一點(diǎn)的模型,不能白白浪費(fèi)你的數(shù)據(jù)!
-
算法
+關(guān)注
關(guān)注
23文章
4743瀏覽量
96900 -
模型
+關(guān)注
關(guān)注
1文章
3618瀏覽量
51542 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8532瀏覽量
136016
原文標(biāo)題:從 0 開始機(jī)器學(xué)習(xí) - 機(jī)器學(xué)習(xí)系統(tǒng)的設(shè)計與誤差分析
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
MAKEFILE條件預(yù)構(gòu)建步驟
怎么將#define值傳遞給后期構(gòu)建步驟?
PID算法調(diào)試步驟
有什么方法可以添加閃存前和閃存后構(gòu)建步驟嗎?
有什么方法可以添加閃存前和閃存后構(gòu)建步驟嗎?
基于設(shè)備性能的藍(lán)牙散列網(wǎng)構(gòu)建算法
WSN中能量有效的連通支配集構(gòu)建算法
TensorRT構(gòu)建具有動態(tài)形狀的引擎的步驟
介紹從一組可重用的驗(yàn)證組件中構(gòu)建測試平臺所需的步驟
可重用的驗(yàn)證組件中構(gòu)建測試平臺的步驟
EEMD方法的原理與算法實(shí)現(xiàn)步驟

構(gòu)建算法的推薦步驟
評論