18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中的自監(jiān)督表示學(xué)習(xí)

深度學(xué)習(xí)自然語言處理 ? 來源:AI公園 ? 作者:amitness ? 2020-11-24 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

其實在自監(jiān)督學(xué)習(xí)的概念提出之前,NLP中就已經(jīng)運用到了這一思想。

雖然計算機視覺在自監(jiān)督學(xué)習(xí)方面取得了驚人的進展,但在很長一段時間內(nèi),自監(jiān)督學(xué)習(xí)一直是NLP研究領(lǐng)域的一等公民。語言模型早在90年代就已經(jīng)存在,甚至在“自我監(jiān)督學(xué)習(xí)”這個術(shù)語出現(xiàn)之前。2013年的Word2Vec論文推廣了這一模式,在許多問題上應(yīng)用這些自監(jiān)督的方法,這個領(lǐng)域得到了迅速的發(fā)展。

這些自監(jiān)督的方法的核心是一個叫做 “pretext task” 的框架,它允許我們使用數(shù)據(jù)本身來生成標(biāo)簽,并使用監(jiān)督的方法來解決非監(jiān)督的問題。這些也被稱為“auxiliary task”或“pre-training task“。通過執(zhí)行此任務(wù)獲得的表示可以用作我們的下游監(jiān)督任務(wù)的起點。

在這篇文章中,我將概述研究人員在沒有明確的數(shù)據(jù)標(biāo)注的情況下從文本語料庫中學(xué)習(xí)表示的各種pretext tasks。本文的重點是任務(wù)的制定,而不是實現(xiàn)它們的架構(gòu)。

自監(jiān)督的方案

1. 預(yù)測中心

在這個公式中,我們?nèi)∫欢ù翱诖笮〉囊恍K文本,我們的目標(biāo)是根據(jù)周圍的單詞預(yù)測中心單詞。

例如,在下面的圖中,我們有一個大小為1的窗口,因此我們在中間單詞的兩邊各有一個單詞。使用這些相鄰的詞,我們需要預(yù)測中心詞。

這個方案已經(jīng)在著名的Word2Vec論文的“Continuous Bag of Words”方法中使用過。

2. 預(yù)測鄰居詞

在這個公式中,我們?nèi)∫欢ù翱诖笮〉奈谋緩埑傻目臻g,我們的目標(biāo)是在給定中心詞的情況下預(yù)測周圍的詞。

這個方案已經(jīng)在著名的Word2Vec論文的“skip-gram”方法中實現(xiàn)。

3. 相鄰句子的預(yù)測

在這個公式中,我們?nèi)∪齻€連續(xù)的句子,設(shè)計一個任務(wù),其中給定中心句,我們需要生成前一個句子和下一個句子。它類似于之前的skip-gram方法,但適用于句子而不是單詞。

這個方案已經(jīng)在Skip-Thought Vectors的論文中使用過。

4. 自回歸語言建模

在這個公式中,我們?nèi)〈罅课礃?biāo)注的文本,并設(shè)置一個任務(wù),根據(jù)前面的單詞預(yù)測下一個單詞。因為我們已經(jīng)知道下一個來自語料庫的單詞是什么,所以我們不需要手工標(biāo)注的標(biāo)簽。

例如,我們可以通過預(yù)測給定前一個單詞的下一個單詞來將任務(wù)設(shè)置為從左到右的語言建模。

我們也可以用這個方案來通給定未來的單詞預(yù)測之前的單詞,方向是從右到左。

這個方案已經(jīng)使用在許多論文中,從n-gram模型到神經(jīng)網(wǎng)絡(luò)模型比如神經(jīng)概率語言模型 (GPT) 。

5. 掩碼語言建模

在這個方案中,文本中的單詞是隨機掩碼的,任務(wù)是預(yù)測它們。與自回歸公式相比,我們在預(yù)測掩碼單詞時可以同時使用前一個詞和下一個詞的上下文。

這個方案已經(jīng)在BERT、RoBERTa和ALBERT的論文中使用過。與自回歸相比,在這個任務(wù)中,我們只預(yù)測了一小部分掩碼詞,因此從每句話中學(xué)到的東西更少。

6. 下一個句子預(yù)測

在這個方案中,我們?nèi)∥募谐霈F(xiàn)的兩個連續(xù)的句子,以及同一文件或不同文件中隨機出現(xiàn)的另一個句子。

然后,任務(wù)是區(qū)分兩個句子是否是連貫的。

在BERT的論文中,它被用于提高下游任務(wù)的性能,這些任務(wù)需要理解句子之間的關(guān)系,比如自然語言推理(NLI)和問題回答。然而,后來的研究對其有效性提出了質(zhì)疑。

7. 句子順序的預(yù)測

在這個方案中,我們從文檔中提取成對的連續(xù)句子。然后互換這兩個句子的位置,創(chuàng)建出另外一對句子。

我們的目標(biāo)是對一對句子進行分類,看它們的順序是否正確。

在ALBERT的論文中,它被用來取代“下一個句子預(yù)測”任務(wù)。

8. 句子重排

在這個方案中,我們從語料庫中取出一個連續(xù)的文本,并破開的句子。然后,對句子的位置進行隨機打亂,任務(wù)是恢復(fù)句子的原始順序。

它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。

9. 文檔旋轉(zhuǎn)

在這個方案中,文檔中的一個隨機token被選擇為旋轉(zhuǎn)點。然后,對文檔進行旋轉(zhuǎn),使得這個token成為開始詞。任務(wù)是從這個旋轉(zhuǎn)的版本中恢復(fù)原來的句子。

它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。直覺上,這將訓(xùn)練模型開始識別文檔。

10. 表情符號預(yù)測

這個方案被用在了DeepMoji的論文中,并利用了我們使用表情符號來表達我們所發(fā)推文的情感這一想法。如下所示,我們可以使用推特上的表情符號作為標(biāo)簽,并制定一個監(jiān)督任務(wù),在給出文本時預(yù)測表情符號。

DeepMoji的作者們使用這個概念對一個模型進行了12億條推文的預(yù)訓(xùn)練,然后在情緒分析、仇恨語言檢測和侮辱檢測等與情緒相關(guān)的下游任務(wù)上對其進行微調(diào)。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4820

    瀏覽量

    106331
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23113

原文標(biāo)題:NLP中的自監(jiān)督表示學(xué)習(xí),全是動圖,很過癮的

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機器學(xué)習(xí)異常檢測實戰(zhàn):用Isolation Forest快速構(gòu)建無標(biāo)簽異常檢測系統(tǒng)

    本文轉(zhuǎn):DeepHubIMBA無監(jiān)督異常檢測作為機器學(xué)習(xí)領(lǐng)域的重要分支,專門用于在缺乏標(biāo)記數(shù)據(jù)的環(huán)境識別異常事件。本文深入探討異常檢測技術(shù)的理論基礎(chǔ)與實踐應(yīng)用,通過Isolatio
    的頭像 發(fā)表于 06-24 11:40 ?1065次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>異常檢測實戰(zhàn):用Isolation Forest快速構(gòu)建無標(biāo)簽異常檢測系統(tǒng)

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1050次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    鎖電路在家居控制的應(yīng)用

    隨著智能家居技術(shù)的發(fā)展,家庭自動化系統(tǒng)越來越受到人們的歡迎。鎖電路作為自動化系統(tǒng)的一個關(guān)鍵組件,它通過保持電路狀態(tài)來實現(xiàn)自動化控制,無需持續(xù)的輸入信號。 一、鎖電路的基本原理
    的頭像 發(fā)表于 01-18 09:58 ?922次閱讀

    深度學(xué)習(xí)工作負(fù)載GPU與LPU的主要差異

    ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務(wù)的順序性問題,是構(gòu)建AI應(yīng)用不可或缺的一環(huán)。 本文旨在探討深度學(xué)習(xí)工作負(fù)載
    的頭像 發(fā)表于 12-09 11:01 ?3741次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>工作負(fù)載<b class='flag-5'>中</b>GPU與LPU的主要差異

    自然語言處理與機器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類語言。機器學(xué)習(xí)(Machine
    的頭像 發(fā)表于 12-05 15:21 ?2394次閱讀

    開關(guān)電源驅(qū)同步整流技術(shù)

    開關(guān)電源驅(qū)同步整流技術(shù) 驅(qū)動方式是最簡單的同步整流驅(qū)動方式。圖示于圖1。兩個二極管DF及DR由MOSFET QF及QR取代。在驅(qū)
    的頭像 發(fā)表于 12-02 10:14 ?2386次閱讀
    開關(guān)電源<b class='flag-5'>中</b>的<b class='flag-5'>自</b>驅(qū)同步整流技術(shù)

    Arm成功將Arm KleidiAI軟件庫集成到騰訊研的Angel 機器學(xué)習(xí)框架

    Arm 與騰訊攜手合作,成功將 Arm KleidiAI 軟件庫集成到騰訊研的 Angel 機器學(xué)習(xí)框架。 ? 借助 KleidiAI 解鎖卓越性能、能效和可移植性,騰訊混元大模型能夠?qū)崿F(xiàn)更快
    的頭像 發(fā)表于 11-24 15:33 ?1554次閱讀

    什么是LLM?LLM在自然語言處理的應(yīng)用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學(xué)習(xí)技術(shù),尤其是變換器(Transformer)架構(gòu)。變換器模型因其注意力(Self-Attention)機制而聞名,這種機制使得模型能夠捕捉文本的長距
    的頭像 發(fā)表于 11-19 15:32 ?4266次閱讀

    時空引導(dǎo)下的時間序列監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?1094次閱讀
    時空引導(dǎo)下的時間序列<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    深度學(xué)習(xí)RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時間序列數(shù)據(jù)的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著一些
    的頭像 發(fā)表于 11-15 09:55 ?1684次閱讀

    NPU在深度學(xué)習(xí)的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU有所不同。NPU通常具有高度并行的處理能力,能夠高效地執(zhí)行深度
    的頭像 發(fā)表于 11-14 15:17 ?2607次閱讀

    自然語言處理與機器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展,自然語言處理(NLP)和機器學(xué)習(xí)(ML)成為了兩個核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點和應(yīng)用場景有所不同。 1. 自然語言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1946次閱讀

    NLP技術(shù)在聊天機器人中的作用

    聊天機器人,也稱為聊天AI,是一種通過文本或語音與人類進行交流的軟件。它們廣泛應(yīng)用于客戶服務(wù)、在線購物、個人助理等領(lǐng)域。NLP技術(shù)是實現(xiàn)聊天機器人智能對話能力的關(guān)鍵。 1. 理解用戶意圖 NLP技術(shù)
    的頭像 發(fā)表于 11-11 10:33 ?1347次閱讀

    Llama 3 在自然語言處理的優(yōu)勢

    在自然語言處理(NLP)的快速發(fā)展,我們見證了從基于規(guī)則的系統(tǒng)到基于機器學(xué)習(xí)的模型的轉(zhuǎn)變。隨著深度學(xué)習(xí)技術(shù)的興起,NLP領(lǐng)域迎來了新的突破
    的頭像 發(fā)表于 10-27 14:22 ?999次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)的核心應(yīng)用領(lǐng)域之一,GPU在加速圖像識別模型訓(xùn)練方面發(fā)揮著關(guān)鍵作用。通過利用GP
    的頭像 發(fā)表于 10-27 11:13 ?1968次閱讀