快轉到主要內容

AI 跑起來!用 Advantech Jetson Orin 輕鬆啟動 DeepSeek-R1 大模型

· loading
作者
Advantech ESS
目錄

為什麼要在 Jetson Orin 上跑 AI 大模型?
#

隨著 AI 越來越普及,邊緣運算需求也持續升溫。不論是智慧製造、零售、交通,還是醫療,現場即時推論、大量數據處理都變得至關重要。NVIDIA Jetson Orin 平台,以高效能、低功耗著稱,特別適合部署先進 AI 應用。但要讓像 DeepSeek-R1 這樣的大型語言模型在邊緣設備順暢運作,背後其實有不少挑戰。本次實驗,就是為了驗證與優化這個流程,讓 AI 真正走進現場!


實驗平台與技術簡介
#

主角登場:Advantech Jetson Orin 家族
#

這次測試採用了兩款主力平台:

  • EPC-R7300:配備 NVIDIA Jetson Orin Nano-Super 8GB,搭載 128GB NVMe SSD,系統為 JetPack 6.1。
  • AIR-030:配備 NVIDIA Jetson Orin AGX 32GB/64GB,搭載 64GB NVMe SSD,系統為 JetPack 6.0。

不論你是想在輕量級設備上做推論,還是需要強大效能支援更大模型,這兩款平台都能滿足不同場景的需求!

支援模型一覽
#

  • EPC-R7300:支援 DeepSeek R1 Qwen-1.5B、Qwen-7B、Llama-8B
  • AIR-030:額外支援 DeepSeek R1 Qwen-32B、Llama-70B

這代表,從小型到超大型 LLM 模型,都能在 Advantech 平台上開箱即用!


實驗流程大公開:讓 AI 跑起來就是這麼簡單!
#

想像一下,你只需要幾個步驟,就能在自己的設備上實現自然語言對話、數學推理、甚至各種專業應用。以下為完整實驗步驟,無論你是工程師還是業務夥伴,都能輕鬆上手!

1. 安裝 Docker 與 Jetson-Containers
#

跟著官方步驟快速安裝,詳細說明可參考: NVIDIA Jetson AI Lab 安裝說明

安裝 jetson-containers:

cd /home/ubuntu/Downloads
git clone https://github.com/dusty-nv/jetson-containers
bash jetson-containers/install.sh

2. 關閉系統通知,讓實驗更專注
#

  • 關閉彈出式警告,避免測試中斷
    影像_(1)_1736408304229.png
  • 安裝 dconf-editor
    sudo apt update
    sudo apt install dconf-editor
    
  • 使用 dconf-editor 進入 /org/gnome/desktop/notifications/,依圖示關閉通知
    螢幕擷取畫面_2025-01-09_154148_1736408528685.png

    螢幕擷取畫面_2025-01-09_154419_1736408674621.png

3. 啟動 Ollama 與 Open WebUI
#

啟動 Ollama Docker 容器
#

jetson-containers run --name ollama dustynv/ollama:r36.4.0

執行後請保持命令視窗開啟。

Ollama 啟動畫面

啟動 Open WebUI 讓瀏覽器連接
#

在新命令視窗執行:

docker run -it --rm --network=host -e WEBUI_AUTH=False --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main

同樣保持視窗開啟。

Open WebUI 啟動畫面

4. 透過瀏覽器操作 AI 大模型
#

步驟 1:進入瀏覽器介面
#

打開 http://0.0.0.0:8080(或命令視窗顯示的 IP),你會看到初始畫面:

初始畫面

點擊 “Get started”。

步驟 2:繼續設定
#

點選 “Okay, Let’s Go!” 開始體驗。

設定畫面

完成後會看到主介面:
主介面

步驟 3:下載並選擇大模型
#

  • 在 “Select a model” 旁點選下拉選單,於搜尋框輸入想試的模型名稱(如 deepseek-r1:7b)
    搜尋模型
  • 依提示直接下載所選模型
    下載提示
  • 下載完成後,從列表選擇新模型(例如 deepseek-r1:7b)
    選擇模型

步驟 4:開始與 AI 模型互動!
#

選好模型後,你就能像使用 ChatGPT 一樣,自由對話、測試各種應用!

互動畫面

更多模型體驗
#

同樣流程,也可下載 Qwen2.5-Math:7b、Qwen2.5:7b 等多種 AI 模型,支援數學推理、專業問答等場景。

  • Qwen2.5-Math:7b

    Qwen2.5-Math:7b

    切換模型

  • Qwen2.5:7b

    Qwen2.5:7b

    切換模型


創新成果與產業應用
#

這次實驗證明,Advantech Jetson Orin 平台不僅能支援多種主流大模型(LLM),還能輕鬆部署在邊緣端,實現:

  • 智慧工廠現場即時語音/文字分析
  • 零售/客服自動回應
  • 智慧醫療資訊查詢
  • 交通監控與決策輔助
  • 自動化數據推理與知識管理

亮點

  • 不必仰賴雲端,每個現場都能即時 AI 化
  • 彈性支援多種模型,快速切換應用
  • 開放式架構,方便二次開發與整合
  • 高效能、低功耗,適合全天候運作

結論與未來展望
#

本次 Advantech 工程團隊用嚴謹又活潑的實作,證明我們在 AI 邊緣運算領域持續創新、不斷突破。未來,我們將持續優化平台相容性,追蹤新模型與推論架構,協助客戶快速導入最前沿的 AI 技術,抓住每一個數位轉型的機會!

Advantech 將持續以創新為核心,讓 AI 技術真正落地,助力各行各業智慧升級。想了解更多最新實驗與解決方案,歡迎隨時聯繫我們!


小提醒:目前在 Qwen 架構模型搭配 MLC inference framework 時,可能會遇到相容性問題(如下圖),我們已同步與 NVIDIA 官方積極協調解決中!

錯誤訊息


參考連結:


持續研發、創新不止,Advantech 永遠走在 AI 邊緣運算的最前線!

相關文章

讓AI更貼近你!研華如何在邊緣裝置上玩轉小型語言模型 (sLLM)
· loading
讓邊緣AI動起來!Advantech 如何用 Docker 容器簡化部署,加速您的創新應用
· loading
揭開邊緣 AI 新時代!Advantech AIMB-2210 × AMD Ryzen™ 8000 NPU 超進化實驗大公開
· loading