MobileSetting logo 流動科技
科技資訊

NVIDIA 開源 Nemotron 3 Super:120B 參數模型如何壓低企業 AI 成本

NVIDIA 在 GTC 前夕推出 Nemotron 3 Super 120B 開源混合專家模型,推理時僅激活 12B 活躍參數,大幅降低運算成本。配合 NemoClaw 企業 AI Agent 平台,引入 Salesforce、Cisco、Google、Adobe 生態夥伴。本文分析這波開源策略對香港企業的實際影響——從本地部署、數據私隱到中小企 AI 准入門檻。

NVIDIA 開源 Nemotron 3 Super:120B 參數模型如何壓低企業 AI 成本

NVIDIA 在 2026 年 GTC 大會前夕推出 Nemotron 3 Super 120B 開源混合專家模型(Mixture of Experts),總參數雖達 120B,但推理時僅激活 12B 活躍參數,運算成本接近小型模型水平。搭配同步發布的 NemoClaw 企業 AI Agent 平台,這套組合為香港企業提供了一條不依賴閉源 API、可本地部署的 AI 自動化路徑。

120B 參數的誤導性數字

看到「120B 參數」四個字,不少人第一反應是:這要幾台 A100 才跑得起來?這個直觀反應並不準確。

Nemotron 3 Super 採用的是混合專家架構(Mixture of Experts,MoE)。這種設計的核心邏輯是:模型內部由多個「專家子網絡」組成,每次推理時系統只激活其中一部分,而不是調動全部參數。120B 是模型的總容量,但實際推理時只有 12B 的活躍參數在運作,比例約為十分之一。

換句話說,用戶獲得的是 120B 規模模型的知識廣度和推理深度,卻只承擔約 12B 模型的計算成本。這對需要在有限硬件預算下部署 AI 的企業來說,是一個實質性的突破,而不只是發布會上的參數遊戲。

NVIDIA 同時針對自家 Blackwell 架構進行了優化,在 GB200 和 B200 系列 GPU 上的推理效率尤為突出。對於已部署或計劃部署 Blackwell 硬件的企業,這個組合的性能表現會更顯著。

開源策略背後的生態盤算

NVIDIA 選擇以開源方式發布 Nemotron 3 Super,而非走 OpenAI 的閉源 API 路線,背後有清晰的生態邏輯。

閉源模型的商業模式是按 token 收費,企業用量越大、帳單越高,且數據必須經過外部服務器。這種模式對金融、醫療、法律等數據敏感行業構成天然障礙。開源模型則不同——企業可以下載模型權重,在自己的服務器上運行,所有數據留在內部,合規成本大幅降低。

對 NVIDIA 而言,開源模型帶動的是 GPU 硬件銷售。企業部署模型需要算力,算力就是 NVIDIA 的核心收入。這個邏輯讓開源和商業利益並不矛盾——反而互相強化。

香港企業在考慮 AI 導入時,數據私隱合規往往是第一道門檻。Nemotron 3 Super 的開源本地部署選項,直接繞過了這個障礙。

NemoClaw:讓 AI 代理真正進入企業流程

僅有語言模型還不夠,企業真正需要的是能接入現有系統、自動處理工作流的 AI 代理(AI Agent)。NVIDIA 同步發布的 NemoClaw 平台正是針對這個需求而來。

NemoClaw 是一個開源企業 AI Agent 整合平台,設計目標是讓 AI 代理能夠跨系統操作——從 CRM 到內部數據庫,從電子郵件到企業軟件——自動完成原本需要人工介入的複雜工作流。

這次發布同時引入了四個重量級生態夥伴:Salesforce、Cisco、Google 和 Adobe。這個名單的含義很具體。Salesforce 意味著 CRM 和銷售自動化;Cisco 代表企業網絡和安全基礎設施;Google 帶來雲端和 Workspace 整合;Adobe 則指向創意和文檔工作流。四個方向幾乎覆蓋了企業日常運營的主要場景。

香港企業普遍使用這幾個平台的產品,NemoClaw 的生態夥伴選擇並非偶然——這是針對現有企業 IT 架構的精準切入。

對香港中小企的實際意義

在香港,討論企業 AI 導入往往繞不開兩個現實問題:成本和數據安全。

成本方面,閉源 API 的月費對中小企而言是持續性支出,用量越大費用越不可控。Nemotron 3 Super 的開源授權意味著一次性部署成本替代了持續的 API 帳單。對於 AI 使用量穩定的企業,長期算下來的差異相當明顯。

數據安全方面,本地部署消除了數據外傳的合規風險。香港的金融機構、律師行、醫療機構在引入 AI 工具時,監管合規是不可忽視的前提。能在防火牆內運行的開源模型,比任何閉源 SaaS 產品都更容易通過合規審查。

對技術資源有限的中小企,還有另一條路:雲端服務商通常會將熱門開源模型托管為 API 服務,月費比閉源產品低,且保留切換到本地部署的靈活性。開源模型的出現讓議價空間變大了。

長推理能力:不只是聊天機器人

Nemotron 3 Super 的設計重點之一是「長推理」(Long Reasoning)能力,這個特性值得單獨討論。

長推理意味著模型能夠進行多步驟、需要保持上下文連貫性的複雜分析,而不只是回答單一問題。這對企業 AI Agent 場景尤為關鍵——自動審查合同條款、分析財務報告、跨部門數據整合——這些任務的共同特點是需要在大量信息中維持邏輯鏈條。

普通語言模型在這類任務上往往表現不穩定,因為上下文窗口限制和推理能力的不足。Nemotron 3 Super 的 MoE 架構配合長推理優化,理論上更適合處理這類企業級複雜任務。

當然,理論性能和實際部署效果之間仍有差距。模型的真實表現還需要在具體業務場景中驗證,這也是企業在大規模導入前必須做的概念驗證(POC)工作。

開源並非萬能

這波開源 AI 浪潮固然降低了准入門檻,但企業在評估時也應該保持清醒。

開源模型的部署需要技術能力支撐。硬件採購、模型微調(Fine-tuning)、系統整合、日常維護——這些環節都需要具備 AI 工程能力的團隊。對於完全沒有 IT 團隊的小型企業,直接部署 120B 級別的開源模型並不現實。

此外,開源不等於免費。GPU 硬件的資本支出,以及電力和冷卻成本,在某些規模下可能高於直接使用雲端 API。企業需要根據自身的用量規模和技術資源做具體測算,而不是看到「開源」兩個字就認為成本問題自動解決。

NemoClaw 平台目前的生態整合深度也有待觀察。生態夥伴名單是一回事,實際的 API 對接穩定性和企業支持質量是另一回事,這需要時間來證明。

GTC 前夕的信號

NVIDIA 選擇在 GTC 大會前夕發布這兩個產品,節奏上顯然經過計算。GTC 是 NVIDIA 的年度旗艦技術大會,今年的主題圍繞 Blackwell 架構和企業 AI 生態。Nemotron 3 Super 和 NemoClaw 的提前亮相,一方面為大會製造討論熱度,另一方面也在告訴市場:NVIDIA 的 AI 野心不止於賣 GPU,而是要構建從硬件到模型到應用平台的完整垂直堆棧。

這個方向和 AMD、Intel 的競爭路線形成明顯對比。競爭對手主要在芯片性能上做文章,NVIDIA 則試圖用軟件生態鎖定企業用戶——開源的 NeMo 框架、Nemotron 系列模型、NemoClaw Agent 平台,加上與主流企業軟件的生態整合,構成一套完整的切換成本。

對香港企業的啟示很簡單:AI 基礎設施的選型窗口正在縮窄。今天選擇哪個平台、哪套工具,未來的替換成本會越來越高。Nemotron 3 Super 和 NemoClaw 的組合,值得企業 IT 決策者認真評估,而不是等市場塵埃落定再跟進。