18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

圖解AI核心技術:大模型、RAG、智能體、MCP

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2025-10-21 09:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

簡介

本文整理了來自Daily Dose of Data Science最熱門或最新的文章,其中極具特色的動圖以生動形象的方式,幫助我們更好的理解AI中的一些核心技術,希望能夠幫助大家更好的理解和使用AI。

大模型

Transformer vs. Mixture of Experts

混合專家 (MoE) 是一種流行的架構,它使用不同的“專家”來改進 Transformer 模型。
下圖解釋了它們與 Transformers 的區(qū)別。

wKgZPGjx0BWAWJgIAA4Azq6quOg663.gif

Transformer 使用前饋網(wǎng)絡。

MoE 使用專家,它們是前饋網(wǎng)絡,但與 Transformer 中的網(wǎng)絡相比規(guī)模較小。在推理過程中,會選擇一部分專家。這使得 MoE 中的推理速度更快。

Fine-tuning LLMs

傳統(tǒng)的微調(如下圖所示)對于 LLM 來說是不可行的,因為這些模型具有數(shù)十億個參數(shù)并且大小為數(shù)百 GB,并且并非每個人都可以使用這樣的計算基礎設施。

wKgZO2jx0BaAKfABAAHyYKgf0Rc811.gif


值得慶幸的是,今天我們有許多最佳方法來微調 LLM,下面描述了五種流行的技術:

wKgZO2jx0BeAUqWgAAebvMmG_ms504.gif

LoRA :添加兩個低秩矩陣 A ,以及 B包含可訓練參數(shù)的權重矩陣。無需進行微調W,只需調整這些低秩矩陣中的更新即可。

LoRA-FA :雖然 LoRA 顯著減少了可訓練參數(shù)的總量,但它仍然需要大量的激活記憶來更新低秩權重。LoRA-FA(FA 代表 Frozen-A)會凍結矩陣,A并且僅更新矩陣B。

VeRA :在 LoRA 中,每一層都有一對不同的低秩矩陣A和B,并且這兩個矩陣都經(jīng)過訓練。然而,在 VeRA 中,矩陣A和B是凍結的、隨機的,并在所有模型層之間共享。VeRA 專注于學習較小的、特定于層的縮放向量,記為b和d,它們是此設置中唯一可訓練的參數(shù)。

Delta-LoRA :除了訓練低秩矩陣之外,W還會對矩陣進行調整,但不是以傳統(tǒng)方式。相反,將兩個連續(xù)訓練步驟中低秩矩陣乘積與之間的差值(或增量)A添加B到W。

LoRA+ :在 LoRA 中,矩陣A和B都以相同的學習率更新。作者發(fā)現(xiàn),為矩陣設置更高的學習率B可以獲得更優(yōu)的收斂效果。

RAG(檢索增強生成)

傳統(tǒng)RAG

傳統(tǒng)RAG系統(tǒng)存在以下一些問題:

wKgZPGjx0BiAW3uHAAOOTJki-zo007.gif

這些系統(tǒng)檢索一次,生成一次。這意味著如果檢索到的上下文不夠,LLM就無法動態(tài)搜索更多信息。

RAG 系統(tǒng)可以提供相關的上下文,但無法通過復雜的查詢進行推理。如果查詢需要多個檢索步驟,傳統(tǒng)的 RAG 就顯得力不從心了。

適應性較差。LLM 無法根據(jù)實際問題調整策略。

Agentic RAG

Agentic RAG 的工作流程如下:

wKgZO2jx0BqAPvqJAAb15zkjDoY081.gif


如上所示,我們的想法是在 RAG 的每個階段引入代理行為。

我們可以把智能體想象成能夠主動思考任務的人——規(guī)劃、調整、迭代,直到找到最佳解決方案,而不僅僅是遵循既定的指令。LLM 的強大功能使這一切成為可能。

讓我們逐步理解這一點:

步驟 1-2)用戶輸入查詢,代理重寫它(刪除拼寫錯誤,簡化嵌入等)

步驟 3)另一個代理決定是否需要更多細節(jié)來回答查詢。

步驟4)如果不是,則將重寫的查詢作為提示發(fā)送給LLM。

步驟 5-8) 如果答案是肯定的,另一個代理會查看其可以訪問的相關資源(矢量數(shù)據(jù)庫、工具和 API 以及互聯(lián)網(wǎng)),并決定哪個資源有用。檢索相關上下文并將其作為提示發(fā)送給 LLM。

步驟9)以上兩條路徑中的任意一條都會產(chǎn)生響應。

步驟 10)最后一個代理檢查答案是否與查詢和上下文相關。

步驟11)如果是,則返回響應。

步驟 12)如果不是,則返回步驟 1。此過程持續(xù)幾次迭代,直到系統(tǒng)承認它無法回答查詢。

這使得 RAG 更加穩(wěn)健,因為在每一步中,代理行為都能確保個體結果與最終目標保持一致。

Corrective RAG

Corrective RAG(CRAG)是改進 RAG 系統(tǒng)的常用技術。它引入了對檢索到的文檔進行自我評估的步驟,有助于保留生成的響應的相關性。
以下是其工作原理的概述:

wKgZPGjx0BuAScqTAAwQFJHery8329.gif

首先根據(jù)用戶查詢搜索文檔。

使用 LLM 評估檢索到的上下文是否相關。

僅保留相關上下文。

如果需要的話,進行網(wǎng)絡搜索。

聚合上下文并生成響應。

RAG 的 5 種分塊策略

wKgZO2jx0B2AVBAiAAu2gpNlYG4903.gif

智能體

5種智能體設計模式

Agentic behaviors允許 LLM 通過結合自我評估、規(guī)劃和協(xié)作來改進他們的輸出!
下圖展示了構建 AI 代理時采用的 5 種最流行的設計模式。

wKgZPGjx0B-AYuCUAAs_enYD4mM072.gif

反射模式

LLM會審查其工作以發(fā)現(xiàn)錯誤并不斷迭代直到產(chǎn)生最終的響應。

工具使用模式

工具允許 LLM 通過以下方式收集更多信息:

查詢矢量數(shù)據(jù)庫

執(zhí)行 Python 腳本

調用API等

這很有幫助,因為 LLM 不僅僅依賴于其內部知識。

ReAct(Reason and Action)模式

ReAct 結合了以上兩種模式:

代理可以反映生成的輸出。

它可以使用工具與世界互動。

這使得它成為當今使用最強大的模式之一。

規(guī)劃模式

AI 不會一次性解決請求,而是通過以下方式創(chuàng)建路線圖:

細分任務

概述目標

這種戰(zhàn)略思維可以更有效地解決任務。

Multi-agent模式

在此設置中:

我們有幾個agent。

每個agent都被分配了專門的角色和任務。

每個agent還可以訪問工具。

所有agent共同努力以交付最終結果,同時在需要時將任務委派給其他agent。

智能體系統(tǒng)的5個等級

Agentic AI 系統(tǒng)不僅僅生成文本;它們還可以做出決策、調用函數(shù),甚至運行自主工作流程。
該圖解釋了人工智能代理的 5 個級別——從簡單的響應者到完全自主的代理。

wKgZPGjx0CGACNtEAA3eCGvWMpQ469.gif

基本響應器僅生成文本

路由器模式?jīng)Q定何時采取路徑

工具調用選擇并運行工具

多代理模式管理多個代理

自主模式完全獨立運作

MCP

Function calling & MCP

在 MCP 成為主流(或像現(xiàn)在這樣流行)之前,大多數(shù) AI 工作流程依賴于傳統(tǒng)的函數(shù)調用。
現(xiàn)在,MCP(模型上下文協(xié)議)正在改變開發(fā)人員為代理構建工具訪問和編排的方式。
以下是解釋函數(shù)調用和 MCP 的視覺說明:

wKgZO2jx0COAc1Y_AApMnhwglsA463.gif

Function calling(函數(shù)調用)

函數(shù)調用是一種機制,它允許 LLM 根據(jù)用戶的輸入識別它需要什么工具以及何時調用它。
它通常的工作方式如下:

LLM 收到來自用戶的提示。

LLM 決定其所需的工具。

程序員實現(xiàn)程序來接受來自 LLM 的工具調用請求并準備函數(shù)調用。

函數(shù)調用(帶有參數(shù))被傳遞給處理實際執(zhí)行的后端服務。

MCP(模型上下文協(xié)議)

函數(shù)調用關注的是模型想要做什么,而 MCP 關注的是如何讓工具變得可發(fā)現(xiàn)和可用——尤其是跨多個代理、模型或平臺。
MCP 無需在每個應用程序或代理中都安裝硬接線工具,而是:

標準化工具的定義、托管和向 LLM 公開的方式。

使 LLM 能夠輕松發(fā)現(xiàn)可用的工具、了解其模式并使用它們。

在調用工具之前提供批準和審計工作流程。

將工具實施與消費的關注點分開。

MCP & A2A

Agent2Agent (A2A) 協(xié)議讓 AI 代理可以連接到其他代理。

wKgZPGjx0CaATvQ8AAp_HmS0eF4846.gif

MCP 為代理提供訪問工具的權限。

而 A2A 允許代理與其他代理連接并以團隊形式協(xié)作。

wKgZO2jx0CeASmdUAAQ3MsmZxTc559.gif

Next thing

在代理領域:

MCP 標準化了代理到工具的通信。

Agent2Agent 協(xié)議標準化了 Agent 到 Agent 的通信。

但還缺少一件東西……

wKgZPGjx0CiAAj8_AAbbWlOeg3E394.gif


AG-UI(代理-用戶交互協(xié)議)標準化了后端代理和前端 UI 之間的交互層(下圖綠色層)。

wKgZPGjx0CqAYRpYAA0FZNx0RuQ967.gif


審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    37115

    瀏覽量

    291133
  • 大模型
    +關注

    關注

    2

    文章

    3356

    瀏覽量

    4772
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NanoEdge AI技術原理、應用場景及優(yōu)勢

    NanoEdge AI 是一種基于邊緣計算的人工智能技術,旨在將人工智能算法應用于物聯(lián)網(wǎng)(IoT)設備和傳感器。這種技術核心思想是將數(shù)據(jù)處
    發(fā)表于 03-12 08:09

    【大語言模型:原理與工程實踐】核心技術綜述

    我也不打算把網(wǎng)上相關的信息在總結一下,這樣的話,工作量很大。 我主要看了-大語言模型基礎技術這節(jié) 大語言模型(Large Language Models,LLMs)的核心技術涵蓋了從
    發(fā)表于 05-05 10:56

    AI for Science:人工智能驅動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    人工智能在科學研究中的核心技術,包括機器學習、深度學習、神經(jīng)網(wǎng)絡等。這些技術構成了AI for Science的基石,使得AI能夠處理和分析
    發(fā)表于 10-14 09:16

    名單公布!【書籍評測活動NO.52】基于大模型RAG應用開發(fā)與優(yōu)化

    (Retrieval-Augmented Agenerated,檢索增強生成)與Agent(AI智能)。本篇小棗君首先嘗試用通俗易懂的語言幫助大家認識RAG這一重要應用形式。 01
    發(fā)表于 12-04 10:50

    【「基于大模型RAG應用開發(fā)與優(yōu)化」閱讀體驗】+Embedding技術解讀

    今天學習大模型RAG 檢索增強生成技術Embedding,即嵌入,是一種將離散數(shù)據(jù)(如文字、圖像、音頻等)轉換為連續(xù)的密集向量表示的技術。這些向量能夠反映原始數(shù)據(jù)之間的關系,使得計算機
    發(fā)表于 01-17 19:53

    【「基于大模型RAG應用開發(fā)與優(yōu)化」閱讀體驗】+第一章初體驗

    《基于大模型RAG應用開發(fā)與優(yōu)化》試讀報告 ——第一章:了解大模型RAG 近年來,隨著人工智能技術的快速發(fā)展,大
    發(fā)表于 02-07 10:42

    【「基于大模型RAG應用開發(fā)與優(yōu)化」閱讀體驗】RAG基本概念

    的安全性和數(shù)據(jù)的保密性。 未來以RAG為代表的人工智能發(fā)展,將開辟一條新通道,過去,各廠家追求實用的大模型等,但在實際用時總有些不稱手。通過RAG
    發(fā)表于 02-08 00:22

    AI Agent 應用與項目實戰(zhàn)》閱讀心得3——RAG架構與部署本地知識庫

    應用。第六章深入探討了RAG架構的工作原理,該技術通過在推理過程中實時檢索和注入外部知識來增強模型的生成能力。RAG架構的核心是檢索器和生成
    發(fā)表于 03-07 19:49

    DevEco Studio AI輔助開發(fā)工具兩大升級功能 鴻蒙應用開發(fā)效率再提升

    帶來了前所未有的智能問答體驗。 RAG增強型與傳統(tǒng)生成式AI的關鍵差異: 圖2:DeepSeek模型增強RAG能力前后效果對比圖 升級點2:
    發(fā)表于 04-18 14:43

    【「零基礎開發(fā)AI Agent」閱讀體驗】+ 入門篇學習

    4.智能具有自主規(guī)劃和行動的能力 5.大模型分為3個層次:基礎層(心臟)、垂直/行業(yè)層(動脈)、應用層(毛細血管) 6.AI Agent具備更顯著的去中心化特點,能夠充分滿足每個人
    發(fā)表于 05-02 09:26

    【「DeepSeek 核心技術揭秘」閱讀體驗】+混合專家

    感謝電子發(fā)燒友提供學習Deepseek核心技術這本書的機會。 讀完《Deepseek核心技術揭秘》,我深受觸動,對人工智能領域有了全新的認識。了解Deepseek-R1 、Deepseek-V3
    發(fā)表于 07-22 22:14

    【內測活動同步開啟】這么???這么強?新一代大模型MCP開發(fā)板來啦!

    噪,無懼嘈雜環(huán)境 云端接入小聆AI,輕松實現(xiàn)個性化定制 搭載領先大模型全鏈路技術:小聆AI 智能語音交互方案 集成情緒感知與表達 :支持情感
    發(fā)表于 09-25 11:47

    藍牙核心技術概述

    藍牙核心技術概述(一):藍牙概述藍牙核心技術概述(二):藍牙使用場景藍牙核心技術概述(三): 藍牙協(xié)議規(guī)范(射頻、基帶鏈路控制、鏈路管理)藍牙核心技術概述(四):藍牙協(xié)議規(guī)范(HCI、
    發(fā)表于 11-24 16:06

    阿里云推出企業(yè)級大模型RAG系統(tǒng)

    在國際AI大數(shù)據(jù)峰會上,阿里云重磅推出了企業(yè)級大模型檢索增強生成(RAG)解決方案。這一解決方案旨在為企業(yè)提供更強大、更智能的大模型應用工具
    的頭像 發(fā)表于 02-05 09:54 ?1737次閱讀

    AI網(wǎng)絡發(fā)展的四大核心技術支柱

    AI模型時代,隨著模型參數(shù)量與訓練集規(guī)模的爆炸性增長,單純依賴GPU單體算力的提升已難以滿足需求,業(yè)界焦點逐漸轉向系統(tǒng)架構層面的革新,其中,作為底層核心技術的網(wǎng)絡成為了突破的關鍵。
    的頭像 發(fā)表于 08-14 17:11 ?2217次閱讀