18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布GPT-4,有哪些技術(shù)趨勢(shì)值得關(guān)注?

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-03-24 11:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文是新浪微博新技術(shù)研發(fā)負(fù)責(zé)人、中國(guó)中文信息學(xué)會(huì)理事張俊林在知乎問(wèn)題「OpenAI 發(fā)布 GPT-4,有哪些技術(shù)上的優(yōu)化或突破?」下的回答,總結(jié)了GPT4技術(shù)報(bào)告里指出的三個(gè)方向,還提及了兩個(gè)其它技術(shù)方向。

在這個(gè)歷史性的時(shí)刻,回答個(gè)問(wèn)題,留下自己作為歷史見(jiàn)證人的足跡。

GPT4的技術(shù)報(bào)告里很明確地指出了三個(gè)新的方向:

第一,LLM最前沿研究的封閉化或小圈子化。技術(shù)報(bào)告里說(shuō)了,出于競(jìng)爭(zhēng)以及安全等方面的考慮,未公布模型規(guī)模等技術(shù)細(xì)節(jié)。從GPT 2.0的開(kāi)源,到GPT 3.0的只有論文,再到ChatGPT連論文也沒(méi)有,直到GPT 4.0的技術(shù)報(bào)告更像效果評(píng)測(cè)報(bào)告。一個(gè)很明顯的趨勢(shì)是,OpenAI做實(shí)了CloseAI的名號(hào),之后OpenAI的LLM最前沿研究不會(huì)再放出論文。

在這個(gè)情形下,其它技術(shù)相對(duì)領(lǐng)先的公司有兩種選擇。一種是做更極致的LLM開(kāi)源化,比如Meta貌似選擇了這條道路,這一般是競(jìng)爭(zhēng)處于劣勢(shì)的公司作出的合理選擇,但是往往相關(guān)技術(shù)不會(huì)是最前沿的技術(shù);另外一種選擇是跟進(jìn)OpenAI,也選擇技術(shù)封閉化。Google之前算是LLM的第二梯隊(duì)。但在“微軟+OpenAI”的一頓組合拳下,現(xiàn)在局面有點(diǎn)狼狽不堪。GPT 4.0去年8月就做好了,估計(jì)現(xiàn)在GPT 5.0正在煉丹過(guò)程中,這么長(zhǎng)的時(shí)間窗口,結(jié)果Google都能落到目前這個(gè)局面,想想Transformer、CoT等非常關(guān)鍵的一些研究都是自己做出來(lái)的,竟淪落至此,不知一眾高層作何感想。Google在后面能快速跟進(jìn),維持在第二梯隊(duì)?wèi)?yīng)該問(wèn)題不大,很可能比第三名技術(shù)也領(lǐng)先很多。出于競(jìng)爭(zhēng)關(guān)系考慮,我猜Google大概率會(huì)跟進(jìn)OpenAI走技術(shù)封閉的路線,最先進(jìn)的LLM技術(shù)優(yōu)先用來(lái)煉屬于自己的丹,而不是寫(xiě)成論文放出來(lái)普惠大眾尤其是普惠OpenAI。而這很可能導(dǎo)致LLM最前沿研究的封閉化。

從現(xiàn)在算起,國(guó)內(nèi)在經(jīng)過(guò)一陣時(shí)間后(要做到ChatGPT的6到7折應(yīng)該比較快,要追平估計(jì)要較長(zhǎng)時(shí)間),必然被迫進(jìn)入自主創(chuàng)新的局面。從最近三個(gè)月國(guó)內(nèi)的各種情況看,將來(lái)會(huì)如何?大概率不太樂(lè)觀。當(dāng)然,這個(gè)關(guān)肯定很難,但必須得過(guò),只能祝愿有能力且有初心者盡力加油了。

第二,GPT 4技術(shù)報(bào)告里提到的LLM模型的“能力預(yù)測(cè)(Capability Prediction)”是個(gè)非常有價(jià)值的新研究方向(其實(shí)之前也有個(gè)別其它資料,我記得看過(guò),但是具體哪篇記不起來(lái)了)。用小模型來(lái)預(yù)測(cè)某些參數(shù)組合下對(duì)應(yīng)大模型的某種能力,如果預(yù)測(cè)足夠精準(zhǔn),能夠極大縮短煉丹周期,同時(shí)極大減少試錯(cuò)成本,所以無(wú)論理論價(jià)值還是實(shí)際價(jià)值巨大,這個(gè)絕對(duì)是非常值得認(rèn)真研究具體技術(shù)方法的。

第三,GPT 4開(kāi)源了一個(gè)LLM評(píng)測(cè)框架,這也是后面LLM技術(shù)快速發(fā)展非常重要的方向。尤其對(duì)于中文,構(gòu)建實(shí)用的中文LLM評(píng)測(cè)數(shù)據(jù)和框架具備特別重要的意義,好的LLM評(píng)測(cè)數(shù)據(jù)可以快速發(fā)現(xiàn)LLM目前存在的短板和改進(jìn)方向,意義重大,但是很明顯目前這塊基本處于空白狀態(tài)。這個(gè)對(duì)于資源要求其實(shí)沒(méi)那么高,適合很多機(jī)構(gòu)去做,不過(guò)確實(shí)是個(gè)辛苦活。

除了GPT 4技術(shù)報(bào)告里明確指出的三個(gè)方向,因?yàn)樽罱麹LM各方面新聞比較多,順手再寫(xiě)兩個(gè)其它技術(shù)方向。

首先,斯坦福大學(xué)近在Meta的7B 開(kāi)源LLaMA基礎(chǔ)上,加上Self Instruct技術(shù)構(gòu)造的Alpaca,也代表了一個(gè)技術(shù)方向。如果歸納下,這個(gè)方向可以被稱(chēng)為“低成本復(fù)現(xiàn)ChatGPT”的方向。所謂Self Instruct,就是采取一定技術(shù)手段,不用人工標(biāo)注Instruct,而是從OpenAI的接口里,好聽(tīng)點(diǎn)叫“蒸餾”出Instruct,也就是不用人標(biāo)注,而是ChatGPT作為teacher,給你的Instruct打上標(biāo)注結(jié)果。這個(gè)把Instruct標(biāo)注成本直接打到了幾百美金的基準(zhǔn),時(shí)間成本就更短了。再加上模型7B規(guī)模也不大,所以可以看成一種“低成本復(fù)現(xiàn)ChatGPT”的技術(shù)路線。

我估計(jì)國(guó)內(nèi)早就有不少人采取這個(gè)技術(shù)路線了。毫無(wú)疑問(wèn),這是一條捷徑,但是走捷徑有好處有壞處,具體不展開(kāi)談了。在追趕ChatGPT的過(guò)程中,先把成本打下來(lái)去復(fù)現(xiàn)ChatGPT到七八成,我個(gè)人還是覺(jué)得可行也支持的,畢竟窮人有窮人的玩法。當(dāng)然,追求把模型做小,效果又不怎么往下掉,如果能扎扎實(shí)實(shí)去做,是非常具有價(jià)值的。

另外,具身智能毫無(wú)疑問(wèn)會(huì)是LLM下一階段的重點(diǎn)研究方向。這方面的代表就是前陣子Google放出來(lái)的PaLM-E。目前的GPT 4,我們可以認(rèn)為人類(lèi)創(chuàng)造出了一個(gè)超級(jí)大腦,但還是把它封鎖在GPU集群里。而這個(gè)超級(jí)大腦需要一個(gè)身體,GPT 4要和物理世界發(fā)生聯(lián)系、交流和互動(dòng),并在物理世界中獲得真實(shí)的反饋,來(lái)學(xué)會(huì)在真實(shí)世界里生存,并根據(jù)真實(shí)世界的反饋,利用比如強(qiáng)化學(xué)習(xí)來(lái)學(xué)習(xí)在世界游走的能力。這個(gè)肯定是最近的將來(lái)最熱門(mén)的LLM研究方向。

多模態(tài)LLM給予了GPT 4以眼睛和耳朵,而具身智能給予GPT 4身體、腳和手。GPT 4和你我發(fā)生一些聯(lián)系,而依托于GPT 4本身強(qiáng)大的學(xué)習(xí)能力,這個(gè)事情估計(jì)很快會(huì)出現(xiàn)在我們身邊。

如果你細(xì)想,其實(shí)還有很多其它有前途的方向。我的個(gè)人判斷是:未來(lái)5到10年,將會(huì)是AGI最快速發(fā)展的黃金十年。如果我們站在未來(lái)30年的時(shí)間節(jié)點(diǎn),當(dāng)我們回顧這10年時(shí),我們中一定會(huì)有人,想起下面的詩(shī)句:“懂得,但為時(shí)太晚,他們使太陽(yáng)在途中悲傷, 也并不溫和地走進(jìn)那個(gè)良夜?!?/p>

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    18256
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1235

    瀏覽量

    9705

原文標(biāo)題:OpenAI發(fā)布GPT-4,有哪些技術(shù)趨勢(shì)值得關(guān)注?

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國(guó)政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語(yǔ)言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是
    的頭像 發(fā)表于 08-07 14:13 ?5948次閱讀

    OpenAI發(fā)布2款開(kāi)源模型

    OpenAI開(kāi)源了兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt
    的頭像 發(fā)表于 08-06 14:25 ?796次閱讀

    OpenAI簡(jiǎn)化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應(yīng)用于各種聊天機(jī)器人中,其中OpenAI的ChatGPT就是一個(gè)典型的例子。然而,對(duì)于大多數(shù)用戶來(lái)說(shuō),選擇最適合自己需求的AI模型卻并非易事。OpenAI目前提供了多種模型供用戶選擇,其中包括能夠快速
    的頭像 發(fā)表于 02-18 09:12 ?667次閱讀

    OpenAI宣布GPT 4o升智計(jì)劃

    近日,全球領(lǐng)先的人工智能公司OpenAI迎來(lái)了一項(xiàng)重要宣布。OpenAI的首席執(zhí)行官Sam Altman正式揭曉了GPT 4o的升智計(jì)劃,這一消息立即引起了業(yè)界的廣泛
    的頭像 發(fā)表于 02-17 14:24 ?787次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    ,GPT-4.5將在未來(lái)幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級(jí),旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在
    的頭像 發(fā)表于 02-13 13:43 ?918次閱讀

    今日看點(diǎn)丨OpenAI發(fā)布新的GPT-4.5模型;三星西安工廠將升級(jí)286層NAND閃存工藝

    1. OpenAI發(fā)布新的GPT-4.5 模型 ? OpenAI首席執(zhí)行官阿爾特曼周三表示,該公司內(nèi)部稱(chēng)為Orion的GPT-4.5模型
    發(fā)表于 02-13 11:22 ?640次閱讀

    OpenAI即將推出GPT-5模型

    先進(jìn)技術(shù),其中包括備受矚目的o3工具。通過(guò)整合這些技術(shù),GPT-5模型將實(shí)現(xiàn)更加強(qiáng)大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應(yīng)用
    的頭像 發(fā)表于 02-13 11:21 ?818次閱讀

    OpenAI CEO預(yù)告GPT-4.5及GPT-5未來(lái)規(guī)劃

    全新的GPT-5模型。這一模型將整合包括o3在內(nèi)的多項(xiàng)OpenAI先進(jìn)技術(shù),旨在為用戶帶來(lái)更加智能、高效的使用體驗(yàn)。值得注意的是,免費(fèi)版的ChatGPT也將在標(biāo)準(zhǔn)智能設(shè)置下無(wú)限制地使用
    的頭像 發(fā)表于 02-13 10:02 ?647次閱讀

    OpenAI提交新商標(biāo)的申請(qǐng)

    的新模型研發(fā)、拓展新的應(yīng)用場(chǎng)景有關(guān)。 回顧 OpenAI 的發(fā)展歷程,從最初發(fā)布 OpenAI gym,到后來(lái)推出 ChatGPT,再到不斷迭代 GPT 系列模型,
    的頭像 發(fā)表于 02-05 16:38 ?879次閱讀

    DeepSeek登頂蘋(píng)果中美兩區(qū)App免費(fèi)榜

    近日,開(kāi)源AI模型DeepSeek-R1的發(fā)布引發(fā)了海外AI業(yè)界的廣泛關(guān)注。據(jù)稱(chēng),該模型的性能可與OpenAIGPT-4正式版相媲美。在AI技術(shù)
    的頭像 發(fā)表于 02-05 15:38 ?573次閱讀

    OpenAI報(bào)告GPT-4o及4o-mini模型性能下降,正緊急調(diào)查

    近日,全球領(lǐng)先的AI研究機(jī)構(gòu)OpenAI發(fā)布了一份事故報(bào)告,引起了業(yè)界的廣泛關(guān)注。報(bào)告中指出,OpenAI目前正面臨GPT-4o和
    的頭像 發(fā)表于 01-23 10:22 ?1033次閱讀

    OpenAIGPT-4o及4o-mini模型性能下降,正展開(kāi)調(diào)查

    ,并承諾將盡快發(fā)布最新的調(diào)查結(jié)果和解決方案。這一事件不僅對(duì)OpenAI自身的技術(shù)聲譽(yù)產(chǎn)生了影響,也引發(fā)了業(yè)界對(duì)于大型語(yǔ)言模型穩(wěn)定性和可靠性的擔(dān)憂。 GPT-4o及
    的頭像 發(fā)表于 01-21 10:34 ?839次閱讀

    OpenAI正式推出Canvas:寫(xiě)作編碼新平臺(tái),支持Python

    近日,OpenAI在連續(xù)發(fā)布新功能的節(jié)奏中,正式向全體ChatGPT用戶開(kāi)放了全新交互界面Canvas。這款工具基于OpenAI最新的GPT-4o模型,旨在為用戶提供一個(gè)強(qiáng)大的寫(xiě)作和編
    的頭像 發(fā)表于 12-12 10:06 ?891次閱讀

    OpenAI推遲GPT-5發(fā)布,專(zhuān)注草莓計(jì)劃GPT-o1及AI代理愿景

    OpenAI,作為人工智能技術(shù)前沿的領(lǐng)航者,始終致力于通過(guò)創(chuàng)新產(chǎn)品和模型升級(jí)來(lái)展現(xiàn)其技術(shù)實(shí)力。隨著SearchGPT的嶄新亮相,OpenAI在平臺(tái)功能上展現(xiàn)出了積極的進(jìn)取態(tài)勢(shì),與Met
    的頭像 發(fā)表于 11-05 16:57 ?1087次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見(jiàn)證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來(lái)革命性的變化。在這場(chǎng)技術(shù)競(jìng)賽中,Llama 3和GPT-4作為兩個(gè)備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1501次閱讀