18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

與ChatGPT性能最相匹配的開(kāi)源模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 2023-04-06 10:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

最近由UC Berkeley、CMU、Stanford, 和 UC San Diego的研究人員創(chuàng)建的 Vicuna-13B,通過(guò)在 ShareGPT 收集的用戶共享對(duì)話數(shù)據(jù)中微調(diào) LLaMA獲得。其中使用 GPT-4 進(jìn)行評(píng)估,發(fā)現(xiàn)Vicuna-13B 的性能達(dá)到了ChatGPT 和 Bard 的 90% 以上,同時(shí)在 90% 情況下都優(yōu)于 LLaMA 和 Alpaca 等其他模型。訓(xùn)練 Vicuna-13B 的費(fèi)用約為 300 美元。訓(xùn)練和代碼[1]以及在線演示[2]已公開(kāi)。

Vicuna到底怎么樣?

Vicuna在官網(wǎng)中通過(guò)和Alpaca、LLaMA、ChatGPT和Bard對(duì)比,然后通過(guò)GPT4當(dāng)裁判來(lái)打出分?jǐn)?shù),具體如下。

13c714ec-d401-11ed-bfe3-dac502259ad0.png

問(wèn)題

13de1fde-d401-11ed-bfe3-dac502259ad0.png

Alpaca-13b vs Vicuna

140b2c9a-d401-11ed-bfe3-dac502259ad0.png

LLaMA-13b vs Vicuna

1430ff2e-d401-11ed-bfe3-dac502259ad0.png

ChatGPT vs Vicuna

1454ff3c-d401-11ed-bfe3-dac502259ad0.png

Bard vs Vicuna

可以看出,Vicuna的回答還是非常棒的,讓GPT4來(lái)打分,Vicuna和ChatGPT是十分接近的,遠(yuǎn)遠(yuǎn)高于Alpaca和LLaMA。

如果大家想試試別的問(wèn)題,可以自己去嘗試[3]哈。

1476f48e-d401-11ed-bfe3-dac502259ad0.png

可換不同類型的不同問(wèn)題

然而,官方認(rèn)為評(píng)估聊天機(jī)器人絕非易事,聽(tīng)過(guò)GPT4進(jìn)行評(píng)估是一件十分不嚴(yán)格的事情,但是目前還是無(wú)法解決評(píng)估的問(wèn)題,需要后續(xù)學(xué)者進(jìn)行進(jìn)一步探索。

148f1b54-d401-11ed-bfe3-dac502259ad0.png

圖1 GPT-4 評(píng)估

在線demo

14a82ec8-d401-11ed-bfe3-dac502259ad0.png

概述

14cef7ec-d401-11ed-bfe3-dac502259ad0.png

圖2 工作流

圖 2 介紹了整體工作流程。訓(xùn)練是在一天時(shí)間在 8 個(gè) A100 上使用 PyTorch FSDP 完成的。 LLaMA、Alpaca、ChatGPT 和 Vicuna 的詳細(xì)比較如表 1 所示。

14f36212-d401-11ed-bfe3-dac502259ad0.png

表1 一些模型的對(duì)比

訓(xùn)練

Vicuna 是通過(guò)使用從 ShareGPT.com 使用公共 API 收集的大約 7萬(wàn) 用戶共享對(duì)話微調(diào) LLaMA 基礎(chǔ)模型創(chuàng)建的。為了確保數(shù)據(jù)質(zhì)量,將 HTML 轉(zhuǎn)換回 markdown 并過(guò)濾掉一些不合適或低質(zhì)量的樣本。此外,將冗長(zhǎng)的對(duì)話分成更小的部分,以適應(yīng)模型的最大上下文長(zhǎng)度。

訓(xùn)練方法建立在斯坦福alpaca的基礎(chǔ)上,并進(jìn)行了以下改進(jìn)。

內(nèi)存優(yōu)化:為了使 Vicuna 能夠理解長(zhǎng)上下文,將最大上下文長(zhǎng)度從alpaca 中的 512 擴(kuò)展到 2048。還通過(guò)gradient checkpointingflash attentio來(lái)解決內(nèi)存壓力。

多輪對(duì)話調(diào)整訓(xùn)練損失考慮多輪對(duì)話,并僅根據(jù)聊天機(jī)器人的輸出進(jìn)行微調(diào)。

通過(guò) Spot 實(shí)例降低成本:使用 SkyPilot 托管點(diǎn)來(lái)降低成本。該解決方案將 7B 模型的訓(xùn)練成本從 500 美元削減至 140 美元左右,將 13B 模型的訓(xùn)練成本從 1000 美元左右削減至 300 美元。

150d9588-d401-11ed-bfe3-dac502259ad0.png

圖3 通過(guò)GPT4來(lái)評(píng)估打分

153299aa-d401-11ed-bfe3-dac502259ad0.png

通過(guò)GPT4評(píng)估得出的總分






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    30309

    瀏覽量

    218378
  • CMU
    CMU
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    15552
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16660
  • ChatGPT
    +關(guān)注

    關(guān)注

    30

    文章

    1595

    瀏覽量

    9928

原文標(biāo)題:Vicuna:與ChatGPT 性能最相匹配的開(kāi)源模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開(kāi)源大語(yǔ)言模型部署

    , Gemma等開(kāi)源模型。當(dāng)然,一些閉源的(類似chatgpt, gemini)是不支持部署的。如下圖: 在端側(cè)部署大模型,個(gè)人認(rèn)為最大的好處:是可以避免因文本或圖片上傳而造成的信
    發(fā)表于 07-19 15:45

    上新:小米首個(gè)推理大模型開(kāi)源 馬斯克:下周推出Grok 3.5

    開(kāi)源新一代通義千問(wèn)模型Qwen3。據(jù)悉,Qwen3模型參數(shù)量?jī)H為DeepSeek - R1的1/3,能夠大幅降低成本,而且性能全面超越R1、OpenAI - o1等全球頂尖
    的頭像 發(fā)表于 04-30 16:08 ?1049次閱讀

    AI開(kāi)源模型庫(kù)有什么用

    AI開(kāi)源模型庫(kù)作為推動(dòng)AI技術(shù)發(fā)展的重要力量,正深刻改變著我們的生產(chǎn)生活方式。接下來(lái),AI部落小編帶您了解AI開(kāi)源模型庫(kù)有什么用。
    的頭像 發(fā)表于 02-24 11:50 ?697次閱讀

    開(kāi)源模型DeepSeek的開(kāi)放內(nèi)容詳析

    當(dāng)大家討論為什么 DeepSeek 能夠形成全球刷屏之勢(shì),讓所有廠商、平臺(tái)都集成之時(shí),「開(kāi)源」成為了最大的關(guān)鍵詞之一,圖靈獎(jiǎng)得主 Yann LeCun 稱其是「開(kāi)源的勝利」。模型開(kāi)源
    的頭像 發(fā)表于 02-19 09:48 ?2274次閱讀
    <b class='flag-5'>開(kāi)源</b>大<b class='flag-5'>模型</b>DeepSeek的開(kāi)放內(nèi)容詳析

    開(kāi)源模型在多個(gè)業(yè)務(wù)場(chǎng)景的應(yīng)用案例

    在人工智能發(fā)展浪潮中,大模型開(kāi)源與閉源之爭(zhēng)一直是業(yè)內(nèi)的熱點(diǎn)話題。隨著技術(shù)的不斷進(jìn)步和應(yīng)用場(chǎng)景的日益豐富,如何降低大模型的使用門檻,讓更多人能夠便捷地應(yīng)用于實(shí)際業(yè)務(wù)場(chǎng)景,成為了推動(dòng)行業(yè)發(fā)展的關(guān)鍵所在。而
    的頭像 發(fā)表于 12-30 10:16 ?1463次閱讀

    【「大模型啟示錄」閱讀體驗(yàn)】+開(kāi)啟智能時(shí)代的新鑰匙

    閱讀之旅。在翻開(kāi)這本書之前,我對(duì)大模型的認(rèn)知僅僅停留在它是一種強(qiáng)大的人工智能技術(shù),可以進(jìn)行自然語(yǔ)言處理、圖像識(shí)別等任務(wù)。我知道像 ChatGPT 這樣的應(yīng)用是基于大模型開(kāi)發(fā)的,能夠與人類進(jìn)行較為流暢
    發(fā)表于 12-24 13:10

    開(kāi)源AI模型庫(kù)是干嘛的

    開(kāi)源AI模型庫(kù)是指那些公開(kāi)源代碼、允許自由訪問(wèn)和使用的AI模型集合。這些模型通常經(jīng)過(guò)訓(xùn)練,能夠執(zhí)行特定的任務(wù)。以下,是對(duì)
    的頭像 發(fā)表于 12-14 10:33 ?1110次閱讀

    開(kāi)源與閉源之爭(zhēng):最新的開(kāi)源模型到底還落后多少?

    一,引言 隨著人工智能(AI)技術(shù)的迅猛發(fā)展,大模型已經(jīng)成為推動(dòng)科技進(jìn)步的重要力量。然而,超大規(guī)模模型在帶來(lái)高性能的同時(shí),也面臨著資源消耗大、部署困難等問(wèn)題。本文將探討AI大模型未來(lái)的
    的頭像 發(fā)表于 11-15 11:16 ?1186次閱讀
    <b class='flag-5'>開(kāi)源</b>與閉源之爭(zhēng):最新的<b class='flag-5'>開(kāi)源</b><b class='flag-5'>模型</b>到底還落后多少?

    阿里通義千問(wèn)代碼模型全系列開(kāi)源

    近日,阿里云通義大模型團(tuán)隊(duì)宣布了一項(xiàng)重大決策:將通義千問(wèn)代碼模型全系列正式開(kāi)源。此次開(kāi)源模型系列共包含6款Qwen2.5-Coder
    的頭像 發(fā)表于 11-14 15:26 ?1340次閱讀

    科技云報(bào)到:假開(kāi)源真噱頭?開(kāi)源模型和你想的不一樣!

    查看、修改、分發(fā)。開(kāi)源自此深刻影響了互聯(lián)網(wǎng)行業(yè)的每一個(gè)角落。 在大模型和GenAI崛起的當(dāng)下,開(kāi)源再次成為業(yè)界關(guān)注焦點(diǎn),對(duì)于開(kāi)源和閉源的爭(zhēng)論也久久未能平息。然而,大
    的頭像 發(fā)表于 11-03 10:46 ?752次閱讀

    ChatGPT:怎樣打造智能客服體驗(yàn)的重要工具?

    用戶反饋和評(píng)估ChatGPT性能。根據(jù)用戶的需求和反饋,不斷優(yōu)化模型和改進(jìn)客服體驗(yàn)。7.人工智能與人工混合:將ChatGPT與人工客服團(tuán)隊(duì)結(jié)合使用,形成人工智能與人工混合的客服模式。
    的頭像 發(fā)表于 11-01 11:12 ?565次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗(yàn)的重要工具?

    Llama 3 與開(kāi)源AI模型的關(guān)系

    在人工智能(AI)的快速發(fā)展中,開(kāi)源AI模型扮演著越來(lái)越重要的角色。它們不僅推動(dòng)了技術(shù)的創(chuàng)新,還促進(jìn)了全球開(kāi)發(fā)者社區(qū)的合作。Llama 3,作為一個(gè)新興的AI項(xiàng)目,與開(kāi)源AI模型的關(guān)系
    的頭像 發(fā)表于 10-27 14:42 ?1000次閱讀

    如何提升 ChatGPT 的響應(yīng)速度

    同時(shí)進(jìn)行,從而減少總體響應(yīng)時(shí)間。 模型壓縮 :通過(guò)模型壓縮技術(shù),如量化、剪枝等,可以減少模型的大小,從而加快模型的加載和推理速度。 知識(shí)蒸餾 :將大型
    的頭像 發(fā)表于 10-25 17:39 ?2017次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個(gè)基于ChatGPT的聊天系統(tǒng)是一個(gè)涉及多個(gè)步驟的過(guò)程,包括理解ChatGPT的API、設(shè)計(jì)用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個(gè)簡(jiǎn)化的指南,用于創(chuàng)建一個(gè)基本的聊
    的頭像 發(fā)表于 10-25 16:23 ?1331次閱讀

    如何使用 ChatGPT 進(jìn)行內(nèi)容創(chuàng)作

    ChatGPT平臺(tái)。 選擇模型ChatGPT目前支持GPT3.5和GPT4兩個(gè)模型。根據(jù)創(chuàng)作需求,選擇合適的模型。一般來(lái)說(shuō),GPT4
    的頭像 發(fā)表于 10-25 16:08 ?1660次閱讀