18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型案例之奶牛識別模型

柴火創(chuàng)客空間 ? 來源:柴火創(chuàng)客空間 ? 2024-12-04 14:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標志著自然語言處理領(lǐng)域取得了重大突破。它在文本生成、對話系統(tǒng)和語言理解等方面展現(xiàn)出了強大的能力,為人工智能技術(shù)的發(fā)展開辟了新的可能性。同時,人工智能技術(shù)正在進入各種應(yīng)用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。

柴火創(chuàng)客2024年將依托母公司Seeed矽遞科技在人工智能領(lǐng)域的創(chuàng)新硬件,與全球創(chuàng)客愛好者共建“模型倉”,通過“SenseCraft AI”平臺可以讓使用者快速部署應(yīng)用體驗人工智能技術(shù)!

本期介紹:模型案例:|奶牛識別模型!

EfficientNet

在開發(fā)以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心的機器學(xué)習(xí)模型時,為了提供準確率最常見的方法是通過深度或?qū)挾龋ㄆ鋵嵰簿褪窃黾觕hannels)來放大卷積網(wǎng),或是使用分辨率更大的圖像進行訓(xùn)練和評估。雖然這些傳統(tǒng)方法提高準確率的效果不錯,但大多需要繁瑣的手動調(diào)整,還可能無法達到最佳性能。

如何使深度(更多層)、寬度(更多通道)或更高的圖像分辨率達到平衡以獲取更好的性能,EfficientNet很好的解決了這個問題。

4646292c-aca8-11ef-93f3-92fbcf53809c.png

EfficientNet的核心思想是復(fù)合縮放,EfficientNet不是單獨增加深度、寬度或分辨率,而是按比例同時擴展這三個方面。

這種平衡的增長使模型能夠在不需要不必要的計算的情況下提高準確性,并在不犧牲有效性的情況下最大限度地提高效率。

46611c96-aca8-11ef-93f3-92fbcf53809c.png

EfficientNet使用復(fù)合縮放方法來按比例平衡深度,寬度和分辨率,提高準確性,同時最大限度地減少資源使用。

EfficientNet-B 0是使用神經(jīng)結(jié)構(gòu)搜索(NAS)設(shè)計的,以優(yōu)化高精度和低計算成本。

EfficientNet系列(B 0至B7)從B 0向上擴展,與其他型號相比,使用更少的參數(shù)和FLOP實現(xiàn)一致的性能改進。

只縮放一維(深度、寬度或分辨率)會導(dǎo)致精度遞減; EfficientNet的復(fù)合縮放更有效。

在ImageNet上,EfficientNet模型提供了最先進的準確性,計算成本比ResNet和NASNet等替代方案低得多。

EfficientNet也擅長遷移學(xué)習(xí)。它在CIFAR-10和斯坦福大學(xué)汽車等數(shù)據(jù)集上實現(xiàn)了最佳性能,同時使用的參數(shù)減少了9.6倍。

奶牛識別模型

467e3966-aca8-11ef-93f3-92fbcf53809c.png

該 AI 模型利用先進的 Swift yolo 算法,專注于奶牛識別,可以在實時視頻流中準確檢測和標記奶牛。它特別適用于 Seeed Studio Grove Vision AI (V2) 設(shè)備。

應(yīng)用場景

健康監(jiān)測:通過識別奶牛的行為和生理特征,模型可以識別潛在的健康問題,例如疾病、應(yīng)激狀態(tài)或營養(yǎng)不足,及時通知農(nóng)場主進行干預(yù)。

生產(chǎn)性能分析:識別不同奶牛的乳量、乳質(zhì)和生長狀態(tài),幫助農(nóng)場主分析和優(yōu)化奶牛的生產(chǎn)性能,從而提高產(chǎn)奶效率和經(jīng)濟效益。

繁殖管理:通過跟蹤和分析奶牛的繁殖周期,助農(nóng)戶進行更有效的繁殖管理。

行為識別:監(jiān)控奶牛的飲食、休息和運動行為,判斷其是否處于正常狀態(tài),以便采取措施改善其生活環(huán)境或飼喂方式。

數(shù)據(jù)分析與決策支持:基于大量收集到的數(shù)據(jù),利用識別模型生成分析報告,輔助農(nóng)場管理決策,如選種、飼料配比及環(huán)境調(diào)控等。

智能喂養(yǎng)和自動化管理:識別奶牛個體后,可以實現(xiàn)智能喂養(yǎng)系統(tǒng),根據(jù)每頭奶牛的需求進行精準喂養(yǎng),提高資源利用效率,降低飼養(yǎng)成本。

Grove-VisionAIV2模塊上部署此模型

1、打開SenseCraft AI平臺,如果第一次使用請先注冊一個會員賬號,還可以設(shè)置語言為中文。

平臺地址:https://sensecraft.seeed.cc/ai/#/model

46ac3f8c-aca8-11ef-93f3-92fbcf53809c.png

2、在頂部單擊【預(yù)訓(xùn)練模型】菜單,在公共AI模型列表8中找到【奶牛檢測】模型,單擊此模型圖片,如下圖所示。

46d33218-aca8-11ef-93f3-92fbcf53809c.png

3、進入【奶牛檢測】模型介紹頁面,單擊右側(cè)的“部署模型”按鈕,如下圖所示。

46f552da-aca8-11ef-93f3-92fbcf53809c.png

4、進入部署奶牛檢測模型頁面,按提示步驟先連接攝像頭,再連接設(shè)備到電腦USB接口上,最后單擊【連接設(shè)備】按鈕,如下圖所示。

46fc4f40-aca8-11ef-93f3-92fbcf53809c.png

5、彈出部署模型窗口,單擊“確定”按鈕,如下圖所示。

4708f114-aca8-11ef-93f3-92fbcf53809c.png

6、彈出連接到串行端口窗口,選擇端口號后單擊“連接”按鈕,如下圖所示。

4722c40e-aca8-11ef-93f3-92fbcf53809c.png

7、開始進行模型部署、固件下載、設(shè)備重啟等過程,完成后在預(yù)覽中即可看到當前攝像頭視頻內(nèi)容,將攝像頭對準手機中奶牛的圖片查看預(yù)測效果,如下圖所示。

473430a4-aca8-11ef-93f3-92fbcf53809c.png

預(yù)測效果視頻演示

Grove Al視覺模塊 V2套裝介紹

4752e544-aca8-11ef-93f3-92fbcf53809c.png

Grove Al視覺模塊 V2

475e834a-aca8-11ef-93f3-92fbcf53809c.png

OV5647-62攝像頭

Grove - Vision Al Module V2是一款拇指大小的人工智能視覺模塊, 配備Himax WiseEye2 HX6538處理器, 該處理器采用 ArmCortex-M55雙核架構(gòu)。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內(nèi)置的數(shù)字麥克風(fēng)和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經(jīng)過訓(xùn)練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應(yīng)用的理想選擇。

Arm Ethos-U55 嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)

嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種特別設(shè)計用于執(zhí)行神經(jīng)網(wǎng)絡(luò)計算的高效率處理器。它主要基于數(shù)據(jù)驅(qū)動并行計算架構(gòu),特別擅長處理視頻、圖像等大量的多媒體數(shù)據(jù)。NPU模仿了生物神經(jīng)網(wǎng)絡(luò)的架構(gòu),與CPU、GPU相比,它能夠通過更少的指令(一條或幾條)完成神經(jīng)元的處理,因此在深度學(xué)習(xí)的處理效率方面具有明顯優(yōu)勢。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內(nèi)置的數(shù)字麥克風(fēng)和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經(jīng)過訓(xùn)練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應(yīng)用的理想選擇。

主要硬件配置

- 板卡基于WiseEye2 HX6538處理器, 采用雙核ARM Cortex-M55架構(gòu) 。

- 配備集成Arm Ethos-U55微神經(jīng)網(wǎng)絡(luò)加速單元, 兼容的樹莓派相機

- 板載PDM麥克風(fēng), SD卡插槽, Type-C, Grove接口, 豐富的外設(shè)支持樣機開發(fā) 。

- Seeed Studio XIAO的可擴展性, SenseCraft Al的現(xiàn)成AI模型用于無代碼部署。

- 支持各種有效的模型, 包括MobilenetV1、MobilenetV2、 Eficientnet-Lite、Yolov5和Yolov8。

寫在最后

SenseCraft-AI平臺的模型倉數(shù)量還很少,但是好消息是它支持自定義模型上傳并輸出推理結(jié)果,平臺會逐漸增加模型倉的數(shù)量和分享有愛好者設(shè)計的模型倉原型,敬請關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37187

    瀏覽量

    291518
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3616

    瀏覽量

    51521
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    369

    瀏覽量

    12640

原文標題:模型案例:| 奶牛識別模型!

文章出處:【微信號:ChaiHuoMakerSpace,微信公眾號:柴火創(chuàng)客空間】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVMe高速傳輸擺脫XDMA設(shè)計27: 橋設(shè)備模型設(shè)計

    橋設(shè)備模型模擬虛擬 PCI 橋設(shè)備的配置空間和路由功能。 橋設(shè)備是拓展 PCIe 鏈路的關(guān)鍵設(shè)備, 在 NVMe 子系統(tǒng)模型中, 橋設(shè)備模型一方面負責(zé)模擬 PCIE 集成塊的配置空間, 另一方面用于
    發(fā)表于 09-18 09:11

    機場設(shè)備智能運維管理大模型

    模型
    中設(shè)智控
    發(fā)布于 :2025年08月13日 11:27:24

    FA模型卡片和Stage模型卡片切換

    卡片切換 卡片切換主要包含如下三部分: 卡片頁面布局:FA模型卡片和Stage模型卡片的布局都采用類web范式開發(fā)可以直接復(fù)用。 卡片配置文件:FA模型的卡片配置在config.json中
    發(fā)表于 06-06 08:10

    FA模型和Stage模型API切換概述

    API切換概述 FA模型和Stage模型由于線程模型和進程模型的差異,部分接口僅在FA模型下才能使用,針對這部分接口在SDK的接口中有FA
    發(fā)表于 06-06 06:29

    從FA模型切換到Stage模型時:module的切換說明

    升級到Stage模型時,Stage模型的name需要和FA模型的package保持一致,否則會導(dǎo)致升級失敗。 name標識HAP的類名。/FA模型中實際未使能,Stage
    發(fā)表于 06-05 08:16

    FA模型訪問Stage模型DataShareExtensionAbility說明

    FA模型訪問Stage模型DataShareExtensionAbility 概述 無論FA模型還是Stage模型,數(shù)據(jù)讀寫功能都包含客戶端和服務(wù)端兩部分。 FA
    發(fā)表于 06-04 07:53

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩種不同的應(yīng)用模型
    發(fā)表于 04-24 07:27

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗】營銷領(lǐng)域大模型的應(yīng)用

    今天跟隨「大模型啟示錄」這本書,學(xué)習(xí)在營銷領(lǐng)域應(yīng)用大模型。 大模型通過分析大量的消費者數(shù)據(jù),包括購買歷史、瀏覽記錄、社交媒體互動等,能夠識別消費者的偏好和行為模式。這種分析能力有助于企
    發(fā)表于 12-24 12:48

    【「大模型啟示錄」閱讀體驗】對大模型更深入的認知

    閱讀《大模型啟示錄》這本書,我得說,它徹底顛覆了我對大模型的理解。作為一個經(jīng)常用KIMI和豆包這類AI工具來完成作業(yè)、整理資料的大學(xué)生,我原以為大模型就是這些工具背后的技術(shù)。但這本書讓我意識到
    發(fā)表于 12-20 15:46

    AI模型部署邊緣設(shè)備的奇妙之旅:目標檢測模型

    1、簡介 人工智能圖像識別是人工智能領(lǐng)域的一個重要分支,它涉及計算機視覺、深度學(xué)習(xí)、機器學(xué)習(xí)等多個領(lǐng)域的知識和技術(shù)。圖像識別主要是處理具有一定復(fù)雜性的信息。計算機采用與人類類似的圖像識別原理,即對
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    在客服領(lǐng)域是大模型落地場景中最多的,也是最容易實現(xiàn)的。本身客服領(lǐng)域的特點就是問答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書,學(xué)習(xí)大模型在客服領(lǐng)域的改變。選擇大
    發(fā)表于 12-17 16:53

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    本文通俗簡單地介紹了什么是大模型、大模型是怎么訓(xùn)練出來的和大模型的作用。 ? 什么是大模型模型,英文名叫Large Model,大型
    的頭像 發(fā)表于 11-25 09:29 ?1.5w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么訓(xùn)練出來的及大<b class='flag-5'>模型</b>作用

    手機識別模型案例

    新的可能性。同時,人工智能技術(shù)正在進入各種應(yīng)用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。 本期介紹:模型案例:|?手機識別模型! RT-DETR RT-DETR是基于DETR架構(gòu)的端到端對象檢測器,完全
    的頭像 發(fā)表于 11-18 11:01 ?1003次閱讀
    手機<b class='flag-5'>識別</b><b class='flag-5'>模型</b>案例

    模型動態(tài)測試工具TPT的軟件集成與測試支持#Siumlink模型測試 #TPT

    模型
    北匯信息POLELINK
    發(fā)布于 :2024年11月07日 11:20:29