完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>
標簽 > nlp
文章:486個 瀏覽:23103次 帖子:14個
收集NLP各種任務(wù)的數(shù)據(jù)集,加上任務(wù)描述和提示組裝成新的數(shù)據(jù)集,并使用這些數(shù)據(jù)微調(diào)預(yù)訓練的大型語言模型。包括指令微調(diào)和有監(jiān)督微調(diào)。
2023-04-07 標簽:數(shù)據(jù)集nlpChatGPT 2.2k 0
LLM 的涌現(xiàn)能力被正式定義為「在小型模型中不存在但在大型模型中出現(xiàn)的能力」,這是 LLM 與以前的 PLM 區(qū)分開來的最顯著特征之一。當出現(xiàn)這種新的能...
基于GLM-6B對話模型的實體屬性抽取項目實現(xiàn)解析
Zero-shot、One-shot以及Few-shot讓人傻傻分不清,讀了很多文章,也沒搞清楚他們的差別,究竟什么叫zero-shot,其在應(yīng)用過程中...
GPT-4發(fā)布后,你的NLP研究發(fā)生了怎樣的變化?
舉Parsing的例子主要是想說,Parsing領(lǐng)域的今天就是很多NLP子領(lǐng)域的明天。NLP很多dalao都是做Parsing起家,那他們?yōu)槭裁船F(xiàn)在不做...
本文主要以實驗為主,探究以上影響 ICL 的因素。 實驗設(shè)置 作者采用 12 個模型進行了實驗。我們包括 6 種語言模型(表 1),所有這些模型...
作為一種有效的策略,數(shù)據(jù)增強 (data augmentation, DA) 緩解了深度學習技術(shù)可能失敗的數(shù)據(jù)稀缺情況。
淺析神經(jīng)網(wǎng)絡(luò)技術(shù)之Transformer
transformer采用注意力機制,能夠識別各單詞之間的相關(guān)性,但對詞序并沒有要求。也就是說,在它看來,我愛你、我你愛,這兩句話沒有區(qū)別。因此,需要對...
2023-03-13 標簽:神經(jīng)網(wǎng)絡(luò)計算機nlp 1k 0
ChatGPT語言模型核心技術(shù)之Transformer
Transformer的主要優(yōu)點是它可以并行地處理輸入序列中的所有位置,因此在訓練和推理時都有著很好的效率。此外,Transformer沒有使用循環(huán)結(jié)構(gòu)...
2023-03-08 標簽:TransformernlpChatGPT 1.4k 0
基于不同量級預(yù)訓練數(shù)據(jù)的RoBERTa模型分析
NLP領(lǐng)域的研究目前由像RoBERTa等經(jīng)過數(shù)十億個字符的語料經(jīng)過預(yù)訓練的模型匯主導。那么對于一個預(yù)訓練模型,對于不同量級下的預(yù)訓練數(shù)據(jù)能夠提取到的知識...
2023-03-03 標簽:神經(jīng)網(wǎng)絡(luò)nlp無監(jiān)督學習 2.5k 0
第三范式:基于預(yù)訓練模型 + finetuning 的范式,如 BERT + finetuning 的 NLP 任務(wù),相比于第二范式,模型準確度顯著提高...
2023-03-03 標簽:數(shù)據(jù)模型nlp 1.3k 0
只要使用過ChatGPT,我們就會發(fā)現(xiàn)它不是一個傳統(tǒng)意義上的人機對話系統(tǒng),實際是一個以自然語言為交互方式的通用語言處理平臺。2020年的GPT-3雖然擁...
如何讓Transformer在征程5上跑得既快又好?以SwinT部署為例的優(yōu)化探索
摘要:SwinT是目前視覺transformer模型中的典型代表,在常見視覺任務(wù),如分類、檢測、分割都有非常出色的表現(xiàn)。雖然在相同計算量的模型指標上,S...
2023-03-03 標簽:gpu模型Transformer 1.4k 0
一個給NLP領(lǐng)域帶來革新的預(yù)訓練語言大模型Bert
之前的文章和大家詳細的介紹了靜態(tài)的詞向量表示word2vec理論加實戰(zhàn),但是word2vec存在一個很大的問題,由于是靜態(tài)詞向量所以無法表示一詞多義,對...
2023-02-28 標簽:GPTELMOSTransformer 10.0萬 0
Language Model Reasoning是什么意思?
那么,前面總是提到推理 (Reasoning) 這個詞,什么是推理?我嘗試用自己的語言來解釋“推理”的含義,最后發(fā)現(xiàn)我寫得還不如 ChatGPT
2023-02-28 標簽:生成器數(shù)據(jù)集GPT 1.8k 0
數(shù)據(jù)科學家必會的六大NLP技術(shù)!
關(guān)鍵字提取,有時又稱之為關(guān)鍵字檢測或關(guān)鍵字分析,這是一種文本分析的 NLP 技術(shù)。這種技術(shù)的主要目的是自動地從文本的正文中提取出現(xiàn)頻率最高的單詞與詞組。...
在自然語言處理界,**模式匹配**可以說是最常用的技術(shù)。甚至可以說,將NLP技術(shù)作為真實生產(chǎn)力的項目都少不了 **模式匹配** 。
NLP 任務(wù)中,數(shù)據(jù)類別不均衡問題應(yīng)該是一個極常見又頭疼的的問題了。最近在工作中也是碰到這個問題,花了些時間梳理并實踐了下類別不均衡問題的解決方式,主要...
2023-02-23 標簽:數(shù)據(jù)代碼nlp 1.1k 0
視覺-語言 (Vision-Language, VL) 是計算機視覺和自然語言處理這兩個研究領(lǐng)域之間形成的交叉領(lǐng)域,旨在賦予 AI 系統(tǒng)從多模態(tài)數(shù)據(jù)中學...
換一批
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
| 電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
| BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
| 無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
| 直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
| 步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
| 伺服電機 | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
| Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
| 示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
| OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
| C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
| Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
| DuerOS | Brillo | Windows11 | HarmonyOS |