Nvidia Jetson Orin Nano Super是什麼?Nvidia 推出新款邊緣 AI 計算平台 Jetson Orin Nano Super,以 249 美元的價格提供大幅提升的效能,為 AI 愛好者和開發者帶來更具吸引力的選項。此款掌上型電腦的 AI 處理能力幾乎是前代產品的兩倍,每秒可執行 67 萬億次運算 (TOPS),效能提升 70%。 同時,其 25 瓦的功耗僅為高階遊戲顯示卡的七分之一,大幅降低了能源消耗。
即加入CFTime TG 討論區!想掌握最新加密市場動態與 AI 新聞與資訊,更能隨時獲得免費 web 3入場券!
Nvidia Jetson Orin Nano Super是什麼? 記憶體頻寬也提升至每秒 102GB
Jetson Orin Nano Super 的記憶體頻寬也提升至每秒 102GB,較前代產品快 50%,能同時處理來自多達四個攝影機的數據,並支援更複雜的 AI 模型。
內建 Nvidia Ampere 架構 GPU 和 6 核心 ARM 處理器,允許同時運行多個 AI 應用程式,適用於開發各種應用,例如機器人導航、物件辨識和語音控制等。 即使是運行大型語言模型 (LLMs),例如具有高達 80 億個參數的 Llama 3.1 模型,也能夠以每秒約 18-20 個代幣的速度生成文本,雖然速度相對較慢,但已足夠應付部分本地應用。
Nvidia Jetson Orin Nano Super 低功耗設計 使其在邊緣 AI 應用中更具優勢
儘管 Jetson Orin Nano Super 僅搭載 1024 個 CUDA 核心,與高階遊戲顯示卡 RTX 系列(RTX 2060: 1920 核心;RTX 3060: 3584 核心;RTX 4060: 3072 核心)相比顯得較少,但其低功耗設計使其在邊緣 AI 應用中更具優勢。其 7-25 瓦的功耗與 RTX 系列顯示卡(115-170 瓦)相比差異巨大,而其 102 GB/s 的記憶體頻寬,雖然低於 RTX 系列顯示卡的 300+ GB/s,但已足以滿足其針對邊緣 AI 工作負載的優化需求。 8GB 共享記憶體,雖然看似有限,卻能有效避免在運行本地 AI 模型(如 Flux 或 Stable Diffusion)時出現記憶體不足的錯誤,提升運算效率。
Nvidia 同時也宣布將釋出軟體更新,以提升舊款 Jetson Orin Nano 的效率。 然而,Jetson Orin Nano Super 的 8GB 共享記憶體和相對較低的 CUDA 核心數,使其更適合原型設計和小規模應用。對於需要大量計算資源的企業級應用,更高階的系統仍是更理想的選擇。 此款產品的推出,預計將進一步降低邊緣 AI 技術的進入門檻,促進相關應用領域的發展。