依照「硬體 → 模型 → 應用 → 專利 → 算力(含 EFLOPS 解釋) → 成本 → 短板 → 總評」的原始架構,逐一檢視中國貼近美國的 6 條戰線
1. 背景:黃仁勳的警訊
4 月底在華盛頓國會山受訪時,NVIDIA 執行長黃仁勳直言:「中國就在我們身後,差距非常、非常小。」並警告過度出口管制恐反噬美國半導體優勢。Business Insider
2. 硬體競爭:自研晶片 + 超大叢集
系統 | 規模/峰值算力 | 關鍵訊息 | 意義 |
華為 CloudMatrix 384 | 384 × Ascend 910C;BF16 300 PFLOPS | 光互聯「超節點」串接 16 櫃;總記憶體 3.6 PB,比 NVIDIA NVL72 高 67% 算力,能效略差 | 禁令下的頂規國產替代 |
百度 Kunlun P800 叢集 | 30 000 顆 P800;支援百億~千億參數模型 | 已在銀行、互聯網場域上線;目標訓練 DeepSeek 級模型 | 大規模部署驗證晶片可用性 |
雖單顆晶片效率仍落後 H100/GB200,但中國已在「系統級可用算力」與美國頂規方案短兵相接。
3. 模型競爭:公開基準「榜一」與多模態
模型 | 規模 | 近期成績 |
DeepSeek Janus‑Pro‑7B | 7 B | GenEval 得分 0.80,超越 DALL‑E 3 (0.67) 與 SDXL (0.74)Analytics Vidhya |
阿里 Qwen 2.5‑Omni | 3‑72 B 系列 | 4 月初登頂 Hugging Face 開源模型榜TechNode |
演算法+資料工程優化,讓中國模型在 MMLU、GSM8K 等指標逼近甚至超車同級美國模型。
4. 生態飛輪:億級用戶與開發者
2025 年 1 月全球 AI App MAU 排行:ChatGPT 349 M;中國 Doubao 78 M、DeepSeek 34 M 佔兩席前五。Backlinko
巨量 C 端流量 → 更多對話數據 → 模型/插件迭代更快,形成正向飛輪。
5. 原創專利:量能壓倒性領先
WIPO 報告:2014–2023 年間中國提交 38 000 件 GenAI 專利家族,為美國 6 倍。WIPO
高專利密度 + 國家補貼,使中國團隊能快速試錯並商品化。
6. 算力基建:國家級「300 EFLOPS」計畫(EFLOPS 是什麼?)
- EFLOPS = Exa‑FLOPS,1 Exa = 10<sup>18</sup>;也就是 1 EFLOPS = 1 百萬兆次浮點運算/秒。當前美國 Frontier 超算實測 1.1 EFLOPS,屬於「億億次」級別。Wikipediatop500.org
- 中國工信部等六部委 2023 年《算力高品質發展行動計畫》:2025 年全國總算力 ≥ 300 EFLOPS,智慧算力占比 35%。截至 2023 年已達 197 EFLOPS。english.www.gov.cn數據中心動態
解讀:若目標達成,中國公有+企業雲將擁有 3 × 10<sup>20</sup> FLOPS 的持續算力,相當於同時運行近 300 台 Frontier 級超算,為大模型提供「電廠級」動力。
7. 成本效率:DeepSeek‑V3 的 560 萬美元衝擊
DeepSeek 技術報告:2.788 M H800 GPU‑hours(57 天)≈ 5.6 M USD 訓練出 671 B MoE,顯著低於 GPT‑4 級別「十億美金」估算。arXivThe Verge
即便該數字僅計「最後一次完整訓練」,仍刷新「大模型=燒錢」既定印象。
8. 尚未解決的短板
面向 | 主要挑戰 |
先進製程 | Ascend 910C 停留 7 nm,能效差距擴大 |
軟體棧 | CANN/MindSpore 等生態成熟度不足,開發者遷移成本高 |
頂尖人才 | 高階研究員仍集中於美企,長期人才流動具不確定性 |
9. 綜合評估
- 硬體堆疊 + 光互聯 讓中國在「系統級可用算力」快速補位。
- 開源打法 使模型基準分數與應用滲透同步追平。
- 政策+資本 提供「電價、土地、融資」三重槓桿,推動 300 EFLOPS 計畫。
結論:美中 AI 競賽已從「世代差距」進入「貼身肉搏」。 真正分水嶺將決定於 先進製程取得、能效優化 與 出口管制博弈。對企業與投資人而言,重點已不再是誰領先,而是如何在雙中心格局下靈活配置風險並整合資源。