18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2025-07-14 11:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

通用機(jī)器人的時(shí)代已經(jīng)到來,這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個(gè)關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的訓(xùn)練數(shù)據(jù)來掌握諸如組裝和檢查之類的技能,而手動(dòng)演示的方式難以擴(kuò)展?;贜VIDIA Cosmos構(gòu)建的NVIDIA Isaac GR00T-Dreams blueprint,可以通過單張圖像和語言提示生成海量的合成軌跡數(shù)據(jù),能夠有效解決這一難題。

利用 Cosmos 世界基礎(chǔ)模型 (WFMs) 和生成式 AI,開發(fā)者可以快速創(chuàng)建用于訓(xùn)練諸如NVIDIA Isaac GR00T N1.5(全球首個(gè)面向人形機(jī)器人推理和技能的開源基礎(chǔ)模型)等模型的數(shù)據(jù)。

本文將介紹 Isaac GR00T-Dreams blueprint,詳述其先進(jìn)功能及其在開發(fā) Isaac GR00T N1.5 基礎(chǔ)模型中的作用。

GR00T-Dreams blueprint 概覽

Isaac GR00T-Dreams blueprint 是用于生成大量合成軌跡數(shù)據(jù)的參考工作流,生成的數(shù)據(jù)可以用于教會(huì)人形機(jī)器人在新環(huán)境中執(zhí)行新動(dòng)作。

借助這一藍(lán)圖,機(jī)器人僅需極少量的人類演示數(shù)據(jù),就能夠泛化各種行為,并適應(yīng)新的環(huán)境。因此,一個(gè)小型人類演示團(tuán)隊(duì)就能創(chuàng)造出以往需要數(shù)千人才能產(chǎn)出的訓(xùn)練數(shù)據(jù)量。

GR00T-Dreams blueprint 是對(duì)Isaac GR00T-Mimic blueprint的補(bǔ)充。通過使用NVIDIA Omniverse和 Cosmos Transfer-1 WFM 擴(kuò)展已知任務(wù)的現(xiàn)有演示數(shù)據(jù),GR00T-Mimic 可幫助機(jī)器人培養(yǎng)深度熟練程度,并成為這些特定技能的專家。GR00T-Dreams 采用 Cosmos Predict-2 和 Cosmos Reason 為新任務(wù)和環(huán)境生成全新數(shù)據(jù),致力于使機(jī)器人成為具有廣泛適應(yīng)性的通用機(jī)器人。

GR00T-Dreams blueprint 工作流

該藍(lán)圖為訓(xùn)練通用機(jī)器人提供強(qiáng)大的“現(xiàn)實(shí)到現(xiàn)實(shí) (real-to-real)”數(shù)據(jù)工作流,使用真實(shí)機(jī)器人數(shù)據(jù)創(chuàng)建合成軌跡,然后用于訓(xùn)練物理機(jī)器人。這種方法顯著減少了對(duì)大量人類演示的需求。具體步驟如下:

8a78bc1e-5e3b-11f0-baa5-92fbcf53809c.jpg

圖 1. GR00T-Dreams blueprint 架構(gòu)

第一步:利用人類演示進(jìn)行后訓(xùn)練

首先,開發(fā)者收集用于人形機(jī)器人在單一環(huán)境中執(zhí)行單一任務(wù)(如抓取與放置)的一組有限的人類遠(yuǎn)程操作軌跡。然后利用這些真實(shí)世界數(shù)據(jù)對(duì) Cosmos Predict-2 世界基礎(chǔ)模型進(jìn)行后訓(xùn)練。這一步驟可讓模型學(xué)習(xí)該機(jī)器人特有的特定移動(dòng)能力和功能約束。

第二步:生成“夢(mèng)境”

接下來,開發(fā)者向經(jīng)過微調(diào)的 Cosmos 模型輸入初始圖像和基于文本的新指令,要求生成的機(jī)器人執(zhí)行相應(yīng)動(dòng)作。這會(huì)促使生成式模型創(chuàng)建大量多樣化和新穎的任務(wù)場(chǎng)景或未來世界狀態(tài)(也稱為“夢(mèng)境”),例如打開、關(guān)閉、整理物體、清潔和分類等。這些場(chǎng)景以 2D 視頻的形式創(chuàng)建。

第三步:推理和過濾

生成大量“夢(mèng)境”后,Cosmos Reason 模型可用于評(píng)估每個(gè)“夢(mèng)境”的質(zhì)量和成功率。它會(huì)過濾掉“不好的夢(mèng)境”,也就是描繪不成功或有缺陷的任務(wù)嘗試,確保僅讓高質(zhì)量和相關(guān)的場(chǎng)景進(jìn)入下一階段。

第四步:提取神經(jīng)軌跡

選中的“夢(mèng)境”最初只是 2D 視頻中的像素,隨后利用逆動(dòng)力學(xué)模型 (IDM) 生成 3D 動(dòng)作軌跡。IDM是用于動(dòng)作標(biāo)記的生成式 AI 模型,該模型通過輸入 2D 視頻中的兩個(gè)圖像幀,即“之前”和“之后”的畫面,預(yù)測(cè)出這兩個(gè)畫面之間發(fā)生的一系列動(dòng)作。

這一步驟將“夢(mèng)境”視頻中的視覺信息轉(zhuǎn)化為機(jī)器人能夠?qū)W習(xí)的可操作數(shù)據(jù)。這些已添加 3D 動(dòng)作數(shù)據(jù)的 2D 視頻被稱為神經(jīng)軌跡。

第五步:訓(xùn)練視覺運(yùn)動(dòng)策略

最后,這些神經(jīng)軌跡作為大規(guī)模的合成數(shù)據(jù)集,用于訓(xùn)練視覺運(yùn)動(dòng)策略,既可以與真實(shí)世界數(shù)據(jù)協(xié)同訓(xùn)練以增強(qiáng)性能,也可以僅通過對(duì)這些數(shù)據(jù)進(jìn)行訓(xùn)練,來實(shí)現(xiàn)對(duì)新行為和不可見環(huán)境的泛化。

用于機(jī)器人學(xué)習(xí)的高級(jí)功能

GR00T-Dreams 為機(jī)器人學(xué)習(xí)提供了先進(jìn)的功能,包括新行為、新環(huán)境等。

新行為:即使僅有單一任務(wù)(例如抓取與放置)的訓(xùn)練數(shù)據(jù),機(jī)器人也能從語言指令中學(xué)習(xí)新動(dòng)作。

由 GR00T-Dreams 支持的機(jī)器人打開筆記本電腦的神經(jīng)軌跡和真實(shí)機(jī)器人 (Fourier GR-1) 執(zhí)行情況

新環(huán)境:即使世界模型僅在一個(gè)實(shí)驗(yàn)室環(huán)境中訓(xùn)練過,機(jī)器人也能夠泛化到完全未見過的環(huán)境。

由 GR00T-Dreams 支持的機(jī)器人將橘子放入碗中的神經(jīng)軌跡和真實(shí)機(jī)器人 (Fourier GR-1) 執(zhí)行情況

多種機(jī)器人類型:適用于從人形機(jī)器人到機(jī)械臂(如 Franka 和 SO-100)等不同類型的機(jī)器人,并支持多種攝像頭視圖。

由 GR00T-Dreams 支持的 Franka 機(jī)械臂和 SO-100 機(jī)械臂執(zhí)行不同操作任務(wù)

針對(duì)復(fù)雜任務(wù)增強(qiáng)學(xué)習(xí):為具有挑戰(zhàn)性的接觸密集型任務(wù),比如操作可變形物體(折疊)或使用工具(錘擊)等增強(qiáng)訓(xùn)練數(shù)據(jù),形成從初始真實(shí)畫面開始的“真實(shí)到真實(shí)”工作流。

由 GR00T-Dreams 支持的機(jī)器人錘擊操作的神經(jīng)軌跡和真實(shí)機(jī)器人 (Fourier GR-1) 執(zhí)行情況

使用 GR00T-Dreams

對(duì) GR00T N1.5 進(jìn)行后訓(xùn)練

可以使用 GR00T-Dreams 對(duì)視覺語言動(dòng)作 (VLA) 模型進(jìn)行后訓(xùn)練,以在未見過的環(huán)境中實(shí)現(xiàn)新行為和操作。

NVIDIA 研究中心使用 GR00T-Dreams blueprint 生成合成訓(xùn)練數(shù)據(jù),僅用 36 小時(shí)就完成了 GR00T N1.5 的開發(fā)。如果使用人工收集人類數(shù)據(jù),這一過程需要近三個(gè)月的時(shí)間。

GR00T N1.5 是 GR00T N1 的首次更新,GR00T N1 是全球首個(gè)面向通用人形機(jī)器人推理和技能的開源基礎(chǔ)模型。這個(gè)跨形態(tài)模型可以接收語言和圖像等多模態(tài)輸入,在多樣化的環(huán)境中執(zhí)行操作任務(wù)。

GR00T N1.5 的新功能:

提高對(duì)語言指令的理解準(zhǔn)確性

借助 Isaac GR00T-Dreams,增強(qiáng)對(duì)新物體和新環(huán)境的泛化能力

通過 Eagle 2.5 提供更好的空間理解和開放世界視覺定位,提升視覺語言基礎(chǔ)

在材料處理和制造任務(wù)中成功率更高

開源的 NVIDIA 物理 AI 數(shù)據(jù)集

NVIDIA 擴(kuò)展了其開源物理AI數(shù)據(jù)集。該數(shù)據(jù)集是 Hugging Face 上下載量最多的機(jī)器人數(shù)據(jù)集,最初于 2025 年 3 月推出,如今新增了數(shù)千條機(jī)器人軌跡,包括 Unitree G1 機(jī)器人的首批真實(shí)訓(xùn)練數(shù)據(jù)和 24,000 條仿真遠(yuǎn)程操作軌跡。

該數(shù)據(jù)集還包含各種操作任務(wù)的合成仿真數(shù)據(jù),在開發(fā) GR00T N1.5 的過程中發(fā)揮了重要的作用。

GR00T N 模型在機(jī)器人生態(tài)系統(tǒng)的應(yīng)用

GR00T N 模型已經(jīng)被很多生態(tài)合作伙伴采用,包括 AeiRobot、Foxlink、光輪智能和 NEURA Robotics 等。

AeiRobot 利用這一模型使其工業(yè)機(jī)器人能夠理解自然語言,從而完成復(fù)雜的抓取與放置任務(wù)。Foxlink 利用這一模型提高其工業(yè)機(jī)械臂的靈活性和效率。光輪智能借助這一模型驗(yàn)證合成數(shù)據(jù),以加快人形機(jī)器人在工廠中的部署。NEURA Robotics 正在評(píng)估這一模型,以加速其家用自動(dòng)化系統(tǒng)的開發(fā)。

開始加速機(jī)器人學(xué)習(xí)

Isaac GR00T-Dreams blueprint 是用于生成大量合成軌跡數(shù)據(jù)的參考工作流,這些數(shù)據(jù)可用于教會(huì)人形機(jī)器人在新環(huán)境中執(zhí)行新動(dòng)作。這一藍(lán)圖使機(jī)器人僅需極少量的人類演示數(shù)據(jù),就能夠泛化各種行為,并適應(yīng)新的環(huán)境。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5442

    瀏覽量

    108491
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3616

    瀏覽量

    51497
  • 人形機(jī)器人
    +關(guān)注

    關(guān)注

    7

    文章

    826

    瀏覽量

    18128

原文標(biāo)題:通過世界基礎(chǔ)模型生成的合成軌跡數(shù)據(jù)增強(qiáng)機(jī)器人學(xué)習(xí)

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA 發(fā)布三大利器,推動(dòng)人形機(jī)器人邁向新紀(jì)元

    電子發(fā)燒友網(wǎng)綜合報(bào)道 在節(jié)前的機(jī)器人學(xué)習(xí)大會(huì)(CoRL)上,NVIDIA 發(fā)布了一系列突破性技術(shù),包括開源物理引擎 Newton、機(jī)器人基礎(chǔ)模型 Isaac GROOT N1.6以及全
    的頭像 發(fā)表于 10-13 04:42 ?5118次閱讀

    NVIDIA 利用全新開源模型與仿真庫加速機(jī)器人研發(fā)進(jìn)程

    科研人員及開發(fā)者打造功能更強(qiáng)大、適應(yīng)性更強(qiáng)的機(jī)器人。 ? 全新的 NVIDIA Isaac GR00T 開源基礎(chǔ)模型將為機(jī)器人賦予接近人類的推理能力,使其能夠拆解復(fù)雜指令,并借助已有知
    的頭像 發(fā)表于 09-30 09:52 ?2344次閱讀
    <b class='flag-5'>NVIDIA</b> 利用全新開源<b class='flag-5'>模型</b>與仿真庫加速<b class='flag-5'>機(jī)器人</b>研發(fā)進(jìn)程

    NVIDIA通過全新 Omniverse庫、Cosmos物理AI模型及AI計(jì)算基礎(chǔ)設(shè)施,為機(jī)器人領(lǐng)域開啟新篇章

    NVIDIA 通過全新 Omniverse 庫、Cosmos 物理 AI 模型及 AI 計(jì)算基礎(chǔ)設(shè)施,為機(jī)器人領(lǐng)域開啟新篇章 ? ·?全新
    的頭像 發(fā)表于 08-12 11:29 ?1228次閱讀
    <b class='flag-5'>NVIDIA</b><b class='flag-5'>通過</b>全新 Omniverse庫、<b class='flag-5'>Cosmos</b>物理AI<b class='flag-5'>模型</b>及AI計(jì)算基礎(chǔ)設(shè)施,為<b class='flag-5'>機(jī)器人</b>領(lǐng)域開啟新篇章

    利用NVIDIA Cosmos模型訓(xùn)練通用機(jī)器人

    機(jī)器人領(lǐng)域的一大核心挑戰(zhàn)在于如何讓機(jī)器人掌握新任務(wù),而無需針對(duì)每個(gè)新任務(wù)和環(huán)境耗費(fèi)大量精力收集和標(biāo)注數(shù)據(jù)集。NVIDIA 的最新研究方案通過生成式 AI、世界基礎(chǔ)
    的頭像 發(fā)表于 08-05 16:22 ?1504次閱讀
    利用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Cosmos</b><b class='flag-5'>模型</b>訓(xùn)練通用<b class='flag-5'>機(jī)器人</b>

    NVIDIA展示機(jī)器人領(lǐng)域的研究成果

    在今年的機(jī)器人科學(xué)與系統(tǒng)會(huì)議 (RSS) 上,NVIDIA 研究中心展示了一系列推動(dòng)機(jī)器人學(xué)習(xí)的研究成果,展示了在仿真、現(xiàn)實(shí)世界遷移和決策制定領(lǐng)域的突破。
    的頭像 發(fā)表于 07-23 10:43 ?927次閱讀

    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時(shí)支持模仿學(xué)習(xí)(模仿人類)和強(qiáng)化學(xué)習(xí)(在嘗試和錯(cuò)誤中進(jìn)行學(xué)習(xí)),為所有
    的頭像 發(fā)表于 07-14 15:29 ?1519次閱讀
    <b class='flag-5'>NVIDIA</b> Isaac Lab可用環(huán)境與強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>腳本使用指南

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺(tái) NVIDIA Cosmos 中的關(guān)鍵模型——NVIDIA C
    的頭像 發(fā)表于 07-09 10:17 ?429次閱讀

    NVIDIA Isaac Sim與NVIDIA Isaac Lab的更新

    在 COMPUTEX 2025 上,NVIDIA 宣布了機(jī)器人仿真參考應(yīng)用 NVIDIA Isaac Sim 和機(jī)器人學(xué)習(xí)框架 NVIDIA
    的頭像 發(fā)表于 05-28 10:06 ?1558次閱讀

    NVIDIA Cosmos加速機(jī)器人和自動(dòng)駕駛汽車物理AI發(fā)展

    NVIDIA Cosmos 通過可預(yù)測(cè)未來世界狀態(tài)的世界基礎(chǔ)模型加速物理 AI 的發(fā)展。
    的頭像 發(fā)表于 04-24 11:01 ?809次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Cosmos</b>加速<b class='flag-5'>機(jī)器人</b>和自動(dòng)駕駛汽車物理AI發(fā)展

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    模型可實(shí)現(xiàn)物理 AI 的預(yù)測(cè)、可控世界生成和推理。 兩款全新Blueprint為機(jī)器人和自動(dòng)駕駛汽車后訓(xùn)練提供海量物理 AI 合成數(shù)據(jù)生成技術(shù)。 1X、Agility Robotics
    的頭像 發(fā)表于 03-20 19:01 ?1066次閱讀

    深度解讀英偉達(dá)Newton機(jī)器人平臺(tái):技術(shù)革新與跨界生態(tài)構(gòu)建

    Newton是由NVIDIA、Google DeepMind和Disney Research開發(fā)的開源、可擴(kuò)展的物理引擎,旨在推進(jìn)機(jī)器人學(xué)習(xí)和開發(fā)。 Newton建立在 NVIDIA Warp
    的頭像 發(fā)表于 03-20 15:15 ?2232次閱讀
    深度解讀英偉達(dá)Newton<b class='flag-5'>機(jī)器人</b>平臺(tái):技術(shù)革新與跨界生態(tài)構(gòu)建

    英偉達(dá)推出基石世界模型Cosmos,解決智駕與機(jī)器人具身智能訓(xùn)練數(shù)據(jù)問題

    。Cosmos 世界基礎(chǔ)模型(WFM)使開發(fā)者能夠輕松生成大量基于物理學(xué)的逼真合成數(shù)據(jù),以用于訓(xùn)練和評(píng)估其現(xiàn)有的模型。開發(fā)者還可以通過微調(diào) Cosm
    的頭像 發(fā)表于 01-14 11:04 ?1864次閱讀
    英偉達(dá)推出基石世界<b class='flag-5'>模型</b><b class='flag-5'>Cosmos</b>,解決智駕與<b class='flag-5'>機(jī)器人</b>具身智能訓(xùn)練數(shù)據(jù)問題

    NVIDIA發(fā)布Cosmos平臺(tái),加速物理AI開發(fā)

    )和機(jī)器人等物理AI系統(tǒng)的快速發(fā)展。 Cosmos平臺(tái)的核心在于其強(qiáng)大的生成式世界基礎(chǔ)模型,能夠模擬和預(yù)測(cè)復(fù)雜環(huán)境中的各種物理現(xiàn)象。結(jié)合高級(jí)tokenizer,Cosmos能夠高效地處
    的頭像 發(fā)表于 01-13 11:06 ?986次閱讀

    NVIDIA發(fā)布Cosmos?平臺(tái),助力物理AI系統(tǒng)發(fā)展

    NVIDIA近日宣布推出全新的NVIDIA Cosmos?平臺(tái),該平臺(tái)專為自動(dòng)駕駛汽車(AV)和機(jī)器人等物理AI系統(tǒng)而設(shè)計(jì),旨在推動(dòng)這些領(lǐng)域的快速發(fā)展。
    的頭像 發(fā)表于 01-08 15:36 ?802次閱讀

    NVIDIA Cosmos世界基礎(chǔ)模型平臺(tái)發(fā)布

    NVIDIA 宣布推出NVIDIA Cosmos,該平臺(tái)由先進(jìn)的生成式世界基礎(chǔ)模型、高級(jí) tokenizer、護(hù)欄和加速視頻處理管線組成,將推動(dòng)自動(dòng)駕駛汽車(AV)和
    的頭像 發(fā)表于 01-08 10:39 ?864次閱讀