隨著人工智能及其在未來扮演的角色成為社會討論的焦點(diǎn),恩智浦也在探索一個關(guān)鍵問題:如何從開發(fā)流程著手,確保人工智能和機(jī)器學(xué)習(xí)的安全?
人工智能:不一樣的開發(fā)過程
在恩智浦,我們會按照客戶提出的正式要求,為硬件開發(fā)相應(yīng)的功能。為了滿足客戶的要求,我們首先列出一些已知的輸入信息,也就是用例。用例可能是雷達(dá)傳感器在汽車中的位置(面朝前方或角落)、電動汽車電池的工作電壓、汽車駕駛艙內(nèi)的屏幕數(shù)量等。
然后,我們再定義設(shè)計,驗(yàn)證功能是否按照預(yù)期方式工作,而且不僅在模擬環(huán)境中驗(yàn)證,還在實(shí)地環(huán)境中驗(yàn)證。在實(shí)地環(huán)境中,我們無法控制功能實(shí)際接收到的輸入,因而我們要在選定的用例范圍內(nèi),將功能設(shè)計得盡可能穩(wěn)定可靠。
但對于人工智能,這個開發(fā)過程會有一點(diǎn)變化。我們?nèi)匀粫x用例,但還要為每個用例分配明確定義的輸出。這個任務(wù)交給計算機(jī)完成,然后再定義功能。從示例中學(xué)習(xí)的過程可稱為訓(xùn)練。我們要教計算機(jī)做出我們需要的響應(yīng)。
一旦對計算機(jī)進(jìn)行了用例訓(xùn)練,即可將這些知識轉(zhuǎn)移到設(shè)備,讓設(shè)備將知識應(yīng)用于實(shí)地環(huán)境,更好地處理難以預(yù)知的數(shù)據(jù)。這個過程就稱為推理。它與非人工智能流程的關(guān)鍵差別在于,在人工智能的開發(fā)中,工程師不一定像過去那樣理解功能本身。
因此我們必須進(jìn)行評估,調(diào)節(jié)機(jī)器的行為,直至輸出的結(jié)果符合我們最初的預(yù)期。對于需要高計算量的設(shè)備,這個調(diào)節(jié)過程在云端進(jìn)行,而不是在邊緣進(jìn)行。
實(shí)現(xiàn)安全的人工智能 / 機(jī)器學(xué)習(xí)
人工智能和機(jī)器學(xué)習(xí)將被應(yīng)用于汽車安全功能,因而必須確保它們不會違反安全規(guī)則。從汽車行業(yè)背景來思考人工智能和機(jī)器學(xué)習(xí)時,汽車OEM面臨的問題是如何了解特定功能的風(fēng)險級別,以及它們可能對人造成的傷害。因此,在定義功能時,既要避免系統(tǒng)性故障,還要減少隨機(jī)故障。我們利用安全管理流程和安全架構(gòu)來滿足這些要求,從而在由人管理的開發(fā)中,實(shí)現(xiàn)設(shè)備監(jiān)控。
但是,僅遵循我們現(xiàn)有的開發(fā)流程是不夠的,因?yàn)橛?xùn)練和推理在本質(zhì)上有所不同。因此,我們需要定義不同的問題陳述。首先,我們必須了解訓(xùn)練數(shù)據(jù)是否存在系統(tǒng)性故障。我們還必須了解人工智能模型是如何創(chuàng)建的。該模型是否會產(chǎn)生可能導(dǎo)致系統(tǒng)性故障的不必要偏差?此外,在推理過程中,模型的執(zhí)行是否存在隨機(jī)故障?
在這一方面,機(jī)器學(xué)習(xí)質(zhì)保可以發(fā)揮作用。機(jī)器學(xué)習(xí)質(zhì)保涉及到訓(xùn)練和評估步驟的完整性、正確性和一致性。它涵蓋所有頂級安全流程和數(shù)據(jù)管理。其目的是確保使用的數(shù)據(jù)是正確和完整的,不存在任何偏差。
在推理層面上,安全機(jī)制可以確保硬件的完整性。而這些硬件可能是任何形式的硬件內(nèi)核。經(jīng)典的安全機(jī)制具有ECC/奇偶校驗(yàn)、鎖步和流量監(jiān)控功能,另外還利用安全封裝器加以增強(qiáng),對數(shù)據(jù)進(jìn)行更多檢查,從統(tǒng)計上衡量安全性能。
恩智浦有關(guān)算法道德的白皮書闡述了恩智浦對人工智能開發(fā)完整性的看法,并探討了可靠人工智能的安全性和透明度。我們有一款名為Auto eIQ的專用軟件,可幫助開發(fā)人員評估和優(yōu)化訓(xùn)練模型,并將訓(xùn)練模型部署到目標(biāo)環(huán)境中,有助我們持續(xù)提高模型的可靠性。
編輯:jq
-
OEM
+關(guān)注
關(guān)注
4文章
417瀏覽量
52609 -
人工智能
+關(guān)注
關(guān)注
1812文章
49536瀏覽量
259294 -
ECC
+關(guān)注
關(guān)注
0文章
99瀏覽量
21477 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8532瀏覽量
136016
原文標(biāo)題:深度 | 確保人工智能安全,我們憑什么?
文章出處:【微信號:NXP客棧,微信公眾號:NXP客棧】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
《國際人工智能安全報告》發(fā)布首份關(guān)鍵更新
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!
超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
人工智能是做什么的
芯盾時代引領(lǐng)人工智能安全治理新范式
AI人工智能隱私保護(hù)怎么樣
代理型人工智能:定義與解析
生成式人工智能模型的安全可信評測

我們憑什么來確保人工智能安全?
評論