Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

AI 產業完整供應鏈架構圖

文檔說明: 本文檔詳細解析 AI 產業從上游晶片製造到下游終端應用的完整生態系統,包括各環節主要廠商、市場佔有率、技術特點和供應鏈關係。

更新日期: 2026年1月 涵蓋範圍: AI訓練與推理、數據中心、雲端運算、邊緣AI、光通訊


📑 文檔目錄

產業基礎層 (硬體)

  1. 產業大架構總覽
  2. 第一層: AI 晶片製造
  3. 第二層: AI 散熱系統
  4. 第三層: 電源供應系統
  5. 第四層: 儲存與網路
  6. 第五層: 光通訊與高速互連

平台與應用層

  1. 第六層: 雲端與數據中心
  2. 第七層: AI 軟體與應用
  3. 第八層: 邊緣AI與端側推理

專題分析

  1. ASIC 客製化晶片專題
  2. 中國 AI 產業鏈
  3. 機器人與具身AI ⭐ 新增
  4. AI 能源與永續發展 ⭐ 新增

數據與投資

  1. GPU 產品規格完整對比
  2. 產業風險與地緣政治
  3. 投資標的完整清單
  4. 市場規模與關鍵數據
  5. 關鍵結論與趨勢

1. 產業大架構總覽

┌──────────────────────────────────────────────────────────────────────────┐
│                          AI 產業生態系統 (2026)                            │
├──────────────────────────────────────────────────────────────────────────┤
│                                                                           │
│  ┌────────────────┐  ┌────────────────┐  ┌────────────────┐            │
│  │   上游硬體層   │  │   中游平台層   │  │   下游應用層   │            │
│  │                │  │                │  │                │            │
│  │ • 晶片設計製造 │  │ • 雲端運算     │  │ • AI 大模型    │            │
│  │ • 先進封裝     │  │ • 數據中心     │  │ • 生成式AI     │            │
│  │ • HBM記憶體    │  │ • 儲存系統     │  │ • 企業AI應用   │            │
│  │ • 散熱系統     │──▶│ • 光通訊互連   │──▶│ • 邊緣AI/端側  │            │
│  │ • 電源供應     │  │ • 高速網路     │  │ • 垂直產業AI   │            │
│  │ • 設備材料     │  │ • 運算平台     │  │ • AI Agent     │            │
│  │                │  │                │  │                │            │
│  └────────────────┘  └────────────────┘  └────────────────┘            │
│                                                                           │
│  ┌──────────────────────────────────────────────────────────────────┐   │
│  │                        關鍵供應鏈節點                              │   │
│  │  NVIDIA(設計) → 台積電(製造) → 日月光(封裝) → SK Hynix(HBM)     │   │
│  │  → 鴻海/廣達(組裝) → Azure/AWS(雲端) → OpenAI/Anthropic(模型)    │   │
│  └──────────────────────────────────────────────────────────────────┘   │
│                                                                           │
└──────────────────────────────────────────────────────────────────────────┘

1.1 產業演進時間軸

2020        2022        2023        2024        2025        2026
  │           │           │           │           │           │
  ▼           ▼           ▼           ▼           ▼           ▼
A100        H100       H100量產    B200發布    B200量產    GB300
300W        700W       ChatGPT     Blackwell   HBM3E普及   下一代
CoWoS       HBM3       GPT-4       Claude 3    GPT-5?      HBM4
            液冷起步   AI爆發      開源崛起    Agent時代   CPO普及

2. 第一層: AI 晶片製造

2.1 晶片設計層

🏆 NVIDIA - GPU 絕對霸主

世代產品製程功耗HBM記憶體頻寬量產時間
AmpereA1007nm400WHBM2e 80GB2 TB/s2020
HopperH1004nm700WHBM3 80GB3.35 TB/s2022
HopperH2004nm700WHBM3e 141GB4.8 TB/s2024
BlackwellB1004nm700WHBM3e 192GB8 TB/s2024
BlackwellB2004nm1000WHBM3e 192GB8 TB/s2025
BlackwellGB200 NVL724nm72GPU機櫃HBM3e超級電腦級2025
  • 市佔率: 80-90% (AI訓練晶片)
  • 2025營收預估: $120B+
  • 護城河: CUDA 生態系 (400萬開發者, 15年積累)
  • 核心客戶: OpenAI, Meta, Microsoft, Google, Tesla, xAI

Blackwell 架構亮點:

  • 2080億電晶體 (H100的2.5倍)
  • 第二代 Transformer Engine
  • 支援 FP4 精度訓練
  • NVLink 5.0: 1.8 TB/s 雙向頻寬

AMD - 積極追趕者

產品製程HBM記憶體頻寬定位
MI250X6nmHBM2e 128GB3.2 TB/s2022
MI300X5nmHBM3 192GB5.3 TB/s2023
MI300A5nmAPU整合5.3 TB/s2024
MI325X3nmHBM3e 256GB6 TB/s2024
MI3503nmHBM3e預計20252025
  • 市佔率: 10-15% (快速成長)
  • 2025營收目標: $5B+ (AI晶片)
  • 優勢: ROCm 開源生態, 價格競爭力, 更大記憶體容量
  • 主要客戶: Microsoft Azure, Meta, Oracle

Intel - 重返戰場

產品定位狀態
Gaudi 2AI訓練量產中
Gaudi 3AI訓練2024發布
Falcon Shores下一代2025
  • 市佔率: <5%
  • 策略: 代工 + 自研雙線並進
  • 優勢: x86生態, 企業關係
  • 挑戰: 軟體生態落後

2.2 晶圓製造 - 台積電絕對主導

台積電 TSMC

製程節點應用產品客戶產能狀態
3nm (N3E)A17 Pro, M3Apple量產
4nm (N4P)H100, B200NVIDIA滿載
5nm (N5)MI300XAMD量產
2nm (N2)下一代AI晶片預訂中2025試產
  • 市佔率: >90% (先進製程)
  • AI晶片營收佔比: 40%+ (2025)
  • 良率: 80-90% (先進製程)
  • CoWoS產能: 月產能3.5萬片 (2025), 持續擴充
  • 核心客戶: NVIDIA, AMD, Apple, Qualcomm, MediaTek

2025-2026 關鍵發展:

  • 2nm 製程 2025年量產
  • A16 (1.6nm) 預計 2026
  • CoWoS 產能擴充至月產5萬片
  • 美國亞利桑那廠投產

台積電供應鏈

半導體設備商 (關鍵瓶頸):

公司領域市佔率重要性
ASMLEUV光刻機100%不可替代
Applied Materials蝕刻/沉積25%關鍵
Lam Research蝕刻20%關鍵
KLA檢測設備50%關鍵
Tokyo Electron塗佈/顯影30%關鍵

EUV光刻機關鍵數據:

  • 單價: $1.5-2億美元
  • 交期: 18-24個月
  • 年產能: ~50台
  • High-NA EUV: $3.5億美元 (2025開始交付)

材料商:

  • 信越化學 (矽晶圓) - 30%
  • SUMCO (矽晶圓) - 25%
  • JSR (光阻劑) - 30%
  • Air Liquide (特殊氣體) - 25%

2.3 先進封裝 - 新瓶頸

封裝技術演進

傳統封裝 → 2.5D封裝 → 3D封裝 → 異質整合
   ↓          ↓          ↓          ↓
 Wire Bond   CoWoS     SoIC      Chiplet
             InFO     HBM堆疊    多晶片整合

CoWoS 封裝 (AI晶片核心)

NVIDIA B200 封裝結構 (CoWoS-L):
┌─────────┐  ┌─────┐  ┌─────┐  ┌─────┐  ┌─────┐  ┌─────────┐
│  GPU    │  │ HBM │  │ HBM │  │ HBM │  │ HBM │  │  GPU    │
│  Die    │  │  1  │  │  2  │  │  3  │  │  4  │  │  Die    │
└─────────┘  └─────┘  └─────┘  └─────┘  └─────┘  └─────────┘
═══════════════════════════════════════════════════════════
            Silicon Interposer (矽中介層) - 更大尺寸
═══════════════════════════════════════════════════════════
                   Organic Substrate
═══════════════════════════════════════════════════════════

B200 vs H100 封裝比較:
• 中介層尺寸: B200 (3x reticle) vs H100 (2x reticle)
• HBM 數量: B200 (8顆) vs H100 (6顆)
• 頻寬: B200 (8TB/s) vs H100 (3.35TB/s)

封裝廠商

公司市佔率技術主要客戶
台積電60%+CoWoS, InFO, SoICNVIDIA, AMD
日月光 ASE20%先進封裝, 測試多家
Amkor10%FC-BGAIntel, AMD
力成5%記憶體封裝HBM相關

CoWoS 產能瓶頸:

  • 2024產能: 月產2.5萬片
  • 2025產能: 月產3.5萬片 (仍供不應求)
  • 良率要求: >95%
  • 交期: 4-6個月

3. 第二層: AI 散熱系統

3.1 散熱需求演進 (指數級成長)

GPU功耗演進:
                                          ┌─────┐
                                          │1200W│ GB200
                                    ┌─────┤     │
                              ┌─────┤1000W│     │ B200
                        ┌─────┤ 700W│     │     │
                  ┌─────┤ 400W│     │     │     │
            ┌─────┤ 300W│     │     │     │     │
      ──────┴─────┴─────┴─────┴─────┴─────┴─────┘
      V100   A100   H100   B200  GB200  未來
      2017   2020   2022   2025  2025   2026+
GPU功耗散熱方案機架密度
V100300W氣冷8-10 kW/rack
A100400W氣冷/液冷15-20 kW/rack
H100700W液冷必須40-60 kW/rack
B2001000W液冷/浸沒100+ kW/rack
GB200 NVL7272顆GPU浸沒式120+ kW/rack

3.2 散熱技術分類

散熱技術演進:
┌────────────────┐  ┌────────────────┐  ┌────────────────┐
│    傳統氣冷    │  │    直接液冷    │  │    浸沒式冷卻  │
│   (Air Cool)   │  │  (Direct LC)   │  │   (Immersion)  │
├────────────────┤  ├────────────────┤  ├────────────────┤
│ • 風扇+散熱片  │  │ • 冷板貼合GPU  │  │ • 整機浸入液體 │
│ • PUE: 1.5-2.0 │→ │ • PUE: 1.2-1.3 │→ │ • PUE: 1.02-1.1│
│ • <20kW/rack   │  │ • 40-80kW/rack │  │ • 100+kW/rack  │
│ • 成本低       │  │ • 主流方案     │  │ • 最佳效率     │
└────────────────┘  └────────────────┘  └────────────────┘

3.3 液冷散熱廠商

Vertiv - 全球龍頭

  • 市佔率: 25%
  • 2024營收: $7.5B
  • 技術: Liebert XD (直接液冷), CDU
  • 客戶: Meta, Microsoft, Google, AWS
  • 優勢: 完整數據中心解決方案

Schneider Electric

  • 市佔率: 20%
  • 產品: EcoStruxure, InRow Cooling
  • 特色: PUE <1.2, 智慧管理
  • 客戶: 企業數據中心

Cooler Master / 雙鴻 (台灣)

  • 市佔率: 液冷模組 15%
  • 產品: 伺服器液冷模組, 冷板
  • 客戶: 鴻海, 廣達代工鏈
  • 優勢: 成本優勢, 快速交付

奇鋐 (台灣)

  • 定位: 散熱模組專家
  • 產品: 均熱板, 散熱片, 液冷模組
  • 客戶: NVIDIA DGX供應鏈

3.4 浸沒式冷卻 (未來主流)

GRC (Green Revolution Cooling)

  • 技術: CarnotJet 單相浸沒
  • PUE: 1.02-1.03 (極致能效)
  • 應用: 超高密度AI叢集
  • 客戶: xAI, 超算中心

LiquidCool Solutions

  • 技術: 兩相浸沒式
  • 優勢: 更高散熱效率

Asetek

  • 市佔率: 液冷OEM 20%+
  • 產品: 數據中心液冷, Gaming液冷
  • 客戶: Dell, HP, Lenovo

3.5 冷卻液供應

公司市佔率產品特性
3M40%Novec 7100, 649不導電, 環保
Solvay25%Galden系列高介電強度
Chemours20%Opteon系列低GWP

冷卻液關鍵指標:

  • 介電強度: >40 kV/mm
  • 沸點: 34-174°C (可調)
  • GWP (全球暖化潛勢): <10

4. 第三層: 電源供應系統

4.1 AI伺服器電源需求演進

系統電源需求PSU規格備註
DGX A1006.5 kW2x 3000W8x A100
DGX H10010.2 kW4x 3000W8x H100
DGX B20014.3 kW6x 3000W8x B200
GB200 NVL72120 kW機櫃級供電72x GPU

4.2 UPS 不斷電系統

Schneider Electric - 龍頭

  • 市佔率: 30%
  • 產品: Galaxy VX (250-1500 kVA), Galaxy VL
  • 效率: >97% (ECOnversion模式)
  • 客戶: 大型數據中心

Eaton

  • 市佔率: 25%
  • 產品: 93PM/PR系列, 9PXM
  • 特色: 模組化設計

Vertiv

  • 市佔率: 20%
  • 產品: Liebert APM, EXL S1
  • 整合: 搭配自家冷卻系統

4.3 伺服器電源 (PSU) - 台灣廠商主導

台達電 Delta - 全球第一

產品功率效率應用
CRPS2400W96%+標準伺服器
CRPS3000W96%+AI伺服器
ORv33300W97%+開放運算
  • 市佔率: 35-40% (全球第一)
  • 2024營收: $15B+
  • 技術領先: GaN/SiC 功率元件, 數位電源
  • 核心客戶: NVIDIA DGX, Dell, HP, Lenovo, 雲端大廠
  • 毛利率: 25-30%

光寶 Lite-On

  • 市佔率: 20-25%
  • 產品: 2000-3000W 伺服器電源
  • 客戶: Meta, Microsoft, Google
  • 特色: 價格競爭力

群光 Chicony

  • 市佔率: 10-15%
  • 客戶: Dell, HP
  • 產品: 消費/企業電源

4.4 功率元件供應

類型廠商應用優勢
GaNNavitas, GaN Systems高頻電源效率高, 體積小
SiCWolfspeed, Infineon高壓應用耐高溫, 低損耗
MOSFETInfineon, ON Semi通用成熟, 低成本

5. 第四層: 儲存與網路

5.1 HBM 記憶體 (最關鍵瓶頸)

HBM 技術演進

世代頻寬容量/Stack應用GPU量產時間
HBM21.2 TB/s16GBV1002018
HBM2e1.8 TB/s24GBA1002020
HBM33.35 TB/s24GBH1002022
HBM3e4.8-5.3 TB/s36GBH200, MI300X2024
HBM46+ TB/s48GB下一代2025H2

SK Hynix - 絕對龍頭

  • 市佔率: 50-55% (HBM3e: 90%+)
  • 技術領先: HBM3e 率先量產, 12層堆疊
  • 產品: HBM3 (24GB), HBM3e (36GB)
  • 頻寬: 5.3 TB/s (HBM3e)
  • 核心客戶: NVIDIA (獨家 HBM3e 供應商)
  • 良率: >85% (業界最高)
  • 成本: 80GB約$4000-6000 (持續下降)
  • 產能擴充: 2025年產能翻倍

HBM3e 關鍵數據:

  • 單顆容量: 36GB (12層堆疊)
  • H200配置: 6顆 = 141GB
  • B200配置: 8顆 = 192GB

Samsung - 追趕中

  • 市佔率: 35-40%
  • 狀態: HBM3e 良率提升中
  • 客戶: AMD MI300X (主要), 部分NVIDIA
  • 挑戰: 良率落後SK Hynix

Micron - 積極擴產

  • 市佔率: 10-15%
  • 產品: HBM3e (2024量產)
  • 優勢: 美國本土供應鏈
  • 客戶: NVIDIA (次要供應商)

HBM 供應瓶頸分析

HBM供應鏈瓶頸:

原物料 → 晶圓製造 → TSV製程 → 堆疊封裝 → 測試 → 成品
                        ↑           ↑
                     良率瓶頸    產能瓶頸

瓶頸因素:
• TSV (矽穿孔) 製程複雜
• 12層堆疊良率挑戰
• 散熱要求嚴苛
• 設備產能有限

2025-2026 HBM 供需:

  • 需求: 持續超過供給 30-40%
  • 交期: 3-6個月 (改善中)
  • ASP: 傳統DRAM的5-8倍

5.2 高速網路

NVIDIA Mellanox - InfiniBand 壟斷

產品速度應用狀態
HDR200 GbpsA100叢集成熟
NDR400 GbpsH100叢集主流
XDR800 GbpsB200叢集2024
GDR1.6 Tbps下一代2025+
  • 市佔率: 80%+ (AI InfiniBand)
  • 核心產品:
    • ConnectX-7/8 網卡
    • Quantum-2 交換機
    • BlueField-3 DPU
  • 技術: GPUDirect RDMA, SHARP
  • 客戶: OpenAI, Meta, Google, Microsoft
  • 優勢: 與NVIDIA GPU深度整合

Broadcom - Ethernet 霸主

  • 市佔率: 60% (Ethernet交換晶片)
  • 產品:
    • Memory 5 (51.2 Tbps)
    • Memoria 5 (51.2 Tbps)
  • 客戶: 雲端大廠

網路架構趨勢

AI叢集網路架構:
┌─────────────────────────────────────────────┐
│              Spine Layer (骨幹層)            │
│         800G/1.6T Ethernet/InfiniBand       │
├─────────────────────────────────────────────┤
│              Leaf Layer (葉層)               │
│              400G 交換機                     │
├─────────────────────────────────────────────┤
│              GPU Nodes                       │
│    NVLink (GPU間) + InfiniBand (節點間)     │
└─────────────────────────────────────────────┘

5.3 AI 儲存系統

NVIDIA DGX 儲存

  • 產品: DGX Storage (與DDN合作)
  • 效能: 1TB/s+ 讀取
  • 技術: NVMe over Fabric

Pure Storage

  • 市佔率: 企業Flash儲存 15%
  • 產品: FlashBlade (非結構化資料)
  • 客戶: AI/ML訓練資料

NetApp

  • 市佔率: 企業儲存 20%
  • AI方案: ONTAP AI (與NVIDIA整合)

6. 第五層: 光通訊與高速互連 ⭐ 新增

光通訊是 AI 數據中心的新瓶頸,隨著 GPU 功耗和頻寬需求暴增,800G/1.6T 光模組需求爆發。

6.1 光模組需求演進

光模組速率演進:
                                    ┌────────┐
                              ┌────┤  1.6T  │ 2025+
                        ┌────┤800G│        │
                  ┌────┤400G│    │        │
            ┌────┤200G│    │    │        │
      ──────┴────┴────┴────┴────┴────────┘
      100G  200G  400G  800G  1.6T   未來
      2018  2020  2022  2024  2025   2026+

AI數據中心光模組需求:
• H100叢集: 400G 為主
• B200叢集: 800G 為主
• GB200叢集: 800G/1.6T

6.2 光模組廠商

中際旭創 (InnoLight) - 全球第一

  • 市佔率: 30%+ (800G: 40%+)
  • 產品: 400G/800G/1.6T 光模組
  • 客戶: NVIDIA, Google, Meta, Microsoft
  • 優勢: 成本領先, 產能充足
  • 2024營收: ~$3B

Coherent (原II-VI + Finisar)

  • 市佔率: 25%
  • 產品: 400G/800G 光收發器, 雷射晶片
  • 優勢: 垂直整合 (晶片到模組)
  • 客戶: 雲端大廠

Lumentum

  • 市佔率: 15%
  • 產品: 光學元件, 雷射器
  • 技術: 3D感測, 光通訊
  • 客戶: Apple, 通訊設備商
  • 市佔率: 10%
  • 定位: 中國最大光模組廠
  • 產品: 400G/800G 模組
  • 優勢: 中國市場

6.3 CPO 共封裝光學 (下一代技術)

傳統可插拔模組 vs CPO:

傳統架構:
┌─────────┐    ┌──────────┐    ┌─────────┐
│ Switch  │────│ 光模組   │────│  光纖   │
│  ASIC   │    │ (可插拔) │    │         │
└─────────┘    └──────────┘    └─────────┘
              功耗: 15-20W/400G

CPO架構:
┌──────────────────────┐    ┌─────────┐
│ Switch ASIC + 光引擎 │────│  光纖   │
│    (共封裝)          │    │         │
└──────────────────────┘    └─────────┘
              功耗: 5-8W/400G

CPO優勢:
• 功耗降低 50-70%
• 頻寬密度提升
• 延遲降低
• 成本長期下降

CPO 關鍵廠商

公司角色產品/技術
Broadcom交換晶片+光引擎Memoria系列
Intel矽光子矽光整合方案
NVIDIACPO整合下一代交換機
Cisco系統整合矽光子平台
中際旭創光引擎CPO模組

6.4 高速互連技術

版本頻寬應用GPU數量
NVLink 3.0600 GB/sA1008 GPU
NVLink 4.0900 GB/sH1008 GPU
NVLink 5.01.8 TB/sB20072 GPU (NVL72)

NVSwitch - 大規模GPU互連

  • 功能: 連接多個GPU形成統一記憶體空間
  • NVSwitch 3.0: 支援256個GPU互連
  • 應用: DGX SuperPOD, 超大型AI訓練
  • 定位: 開放標準, 打破NVIDIA壟斷
  • 功能: CPU/GPU/記憶體 統一互連
  • 支持者: Intel, AMD, ARM, 雲端大廠
  • CXL 3.0: 64 GT/s, 記憶體池化
  • 定位: AI加速器開放互連標準
  • 發起者: AMD, Intel, Google, Meta, Microsoft
  • 目標: 挑戰NVLink壟斷
  • 時程: 2024發布規格, 2025產品

6.5 光通訊供應鏈 (台灣廠商)

公司產品客戶地位
聯亞光電光收發晶片光模組廠磊晶龍頭
穩懋GaAs代工光通訊/RF代工龍頭
全新光通訊零組件模組廠零組件
光環光纖連接器數據中心連接器

7. 第六層: 雲端與數據中心

7.1 AI 雲端平台

Microsoft Azure - AI雲端龍頭

指標數據
AI雲端市佔30%+
GPU數量10萬+ H100 (持續擴充)
OpenAI投資$13B+
Azure AI營收$30B+ (2025預估)
  • 核心優勢: OpenAI獨家合作, GPT-4/ChatGPT後端
  • AI服務: Azure OpenAI Service, Copilot
  • 基礎設施: 60+區域, 持續建設AI超級數據中心

Amazon AWS

指標數據
整體雲端市佔32% (第一)
AI雲端市佔25%
自研晶片Trainium2, Inferentia2
Anthropic投資$4B
  • 自研策略: 減少NVIDIA依賴
  • AI服務: Bedrock (模型市集), SageMaker
  • 優勢: 最大雲端生態系

Google Cloud

指標數據
雲端市佔10%
AI雲端市佔20%
自研晶片TPU v5p, v6
Anthropic投資$2B
  • 核心優勢: DeepMind團隊, Gemini模型
  • TPU: AI訓練成本優勢
  • AI服務: Vertex AI, Gemini API

新興AI雲端

公司定位GPU數量客戶
CoreWeave專注AI10萬+ H100AI新創
Lambda LabsGPU雲端數萬研究機構
Together AI開源模型-開發者
Oracle Cloud企業AI大量H100企業

7.2 數據中心建設

AI數據中心規模演進:
                                        ┌──────────┐
                                  ┌────┤ 500MW+   │ xAI等
                            ┌────┤100MW│          │
                      ┌────┤50MW│     │          │
                ┌────┤20MW│    │     │          │
          ──────┴────┴────┴────┴─────┴──────────┘
          傳統   中型   大型  超大型  AI超級DC
                              (Hyperscale)

主要數據中心建設

公司項目規模投資
Microsoft全球擴建100+ MW多處$80B+ (計劃)
MetaAI研究中心35萬GPU目標$40B+
GoogleTPU超級電腦多處$30B+
xAIMemphis DC100,000 H100數十億
Amazon多區域擴建大規模$70B+

7.3 AI伺服器製造 (台灣主導)

鴻海 Foxconn - 最大代工廠

  • 市佔率: 35-40% (AI伺服器)
  • 核心產品: NVIDIA DGX/HGX, GB200 NVL72
  • 客戶: NVIDIA, Microsoft, Meta, Amazon
  • 產能: 墨西哥、台灣、越南多廠
  • 2024營收: AI伺服器約$300B TWD

廣達 Quanta

  • 市佔率: 25-30%
  • 客戶: Google, Meta, Amazon, Microsoft
  • 專長: OCP開放標準伺服器, 液冷整合
  • 優勢: 白牌伺服器經驗深厚

緯創 Wistron

  • 市佔率: 10-15%
  • 客戶: Dell, HP
  • 產品: AI伺服器, 邊緣運算

英業達 Inventec

  • 市佔率: 10%
  • 客戶: HP, 雲端廠
  • 專長: 伺服器主板

7.4 機櫃與基礎設施

公司產品市佔
台達電機櫃電源、PDU15%
Vertiv機櫃、電源、散熱20%
Schneider整體基礎設施25%
Rittal機櫃系統10%

8. 第七層: AI 軟體與應用

8.1 AI 框架與工具

深度學習框架

框架公司市佔特色
PyTorchMeta70% (研究)動態圖, 易用
TensorFlowGoogle20%TPU優化, 生產部署
JAXGoogle5%函數式, 高效能
MLXApple新興Apple Silicon優化

MLOps 與訓練工具

工具功能公司
Weights & Biases實驗追蹤W&B
MLflowML生命週期Databricks
Ray分散式訓練Anyscale
DeepSpeed大模型訓練Microsoft
Megatron-LMLLM訓練NVIDIA

8.2 大語言模型 (LLM)

OpenAI - 領導者

指標數據
估值$200B+ (2025)
ChatGPT用戶3億+
營收$5B+ (2024)
員工1500+
  • 產品線: GPT-4o, GPT-4 Turbo, o1 (推理), Sora (影片)
  • 基礎設施: Azure獨家, 數萬H100/B200
  • 訓練成本: GPT-4約$100M+, GPT-5預計$500M+
  • 護城河: 用戶數據, 品牌, RLHF專長

Anthropic - 安全AI

指標數據
估值$60B+ (2025)
融資$10B+
員工800+
  • 產品: Claude 3.5 Opus/Sonnet, Claude 4 (預期)
  • 投資者: Google $2B, Amazon $4B, Spark
  • 特色: Constitutional AI, 安全優先
  • 客戶: AWS Bedrock, 企業API

Meta - 開源王者

  • 產品: Llama 3, Llama 3.1 (405B參數)
  • 策略: 開源推動AI民主化
  • GPU: 35萬+ H100 (全球最大私有叢集)
  • 影響: 推動開源模型生態

Google DeepMind

  • 產品: Gemini 1.5 Pro/Ultra, Gemini 2.0
  • 技術: AlphaFold, AlphaGo 傳承
  • 優勢: 多模態, 長上下文 (1M+ tokens)
  • 整合: Google搜尋, Workspace

其他重要模型

公司模型特色
MistralMistral Large歐洲開源領導者
xAIGrokElon Musk, Twitter整合
CohereCommand R+企業RAG優化
01.AIYi中國開源

8.3 AI Agent 與自動化

Agent 框架

框架公司功能
AutoGPT開源自主任務執行
LangChainLangChainLLM應用框架
CrewAI開源多Agent協作
Claude Computer UseAnthropic電腦操作Agent

Agent 應用趨勢

AI Agent 演進:
聊天機器人 → 單一任務Agent → 多Agent系統 → 自主Agent
    ↓              ↓              ↓            ↓
 ChatGPT      Copilot       CrewAI      未來願景
 問答互動      程式輔助      團隊協作    完全自主

8.4 應用市場

生成式AI應用

領域龍頭市佔用戶/營收
圖像生成Midjourney50%1600萬用戶
影片生成Runway, Pika新興快速成長
音樂生成Suno, Udio新興病毒式成長
語音合成ElevenLabs40%B2B/B2C

企業AI應用

產品公司用途用戶
GitHub CopilotMicrosoft程式碼180萬+
Microsoft CopilotMicrosoft辦公套件億級
Salesforce EinsteinSalesforceCRM AI企業
Adobe FireflyAdobe創意設計創作者

垂直產業AI

領域公司應用
醫療PathAI, Tempus病理診斷
法律Harvey AI法律文件
金融Bloomberg GPT金融分析
自駕Tesla FSD, Waymo自動駕駛
教育Duolingo, Khan個人化學習

9. 第八層: 邊緣AI與端側推理

隨著大模型向端側延伸,邊緣AI成為2025-2026年的重要趨勢,實現低延遲、隱私保護的本地推理。

9.1 邊緣AI市場概況

邊緣AI部署演進:
                                          ┌─────────┐
                                    ┌────┤  全面   │ 2026+
                              ┌────┤ AI PC│ 普及   │
                        ┌────┤手機 │     │        │
                  ┌────┤IoT  │NPU │     │        │
            ──────┴────┴────┴────┴─────┴────────┘
            2020   2022  2024  2025  2026   未來
            雲端AI  邊緣起步  NPU普及  AI PC  端雲協同
市場規模202420252030
邊緣AI晶片$15B$25B$100B
AI PC5000萬台1億台3億台
端側推理10%30%60%

9.2 AI PC 晶片

Intel - Core Ultra 系列

產品NPU算力CPUGPU定位
Core Ultra 100 (Meteor Lake)10 TOPSP+E核Arc首代AI PC
Core Ultra 200 (Lunar Lake)48 TOPS低功耗Arc 140V輕薄本
Core Ultra 200 (Arrow Lake)13 TOPS高效能Arc桌機/效能本
  • NPU技術: 專用神經網路處理單元
  • 應用場景: Copilot+PC、本地AI助理、影像處理
  • 軟體生態: OpenVINO、Windows AI

AMD - Ryzen AI 系列

產品NPU算力架構特色
Ryzen 7040 (Phoenix)10 TOPSXDNA首代整合NPU
Ryzen 8040 (Hawk Point)16 TOPSXDNA效能提升
Ryzen AI 300 (Strix Point)50 TOPSXDNA2最強NPU
  • XDNA架構: 可重配置AI引擎
  • 優勢: 算力領先、開放ROCm
  • 客戶: 聯想、華碩、HP

Apple - M系列晶片

產品Neural Engine統一記憶體定位
M318 TOPS8-128GB消費級
M3 Pro/Max18 TOPS18-128GB專業級
M438 TOPS16-64GB新一代
M4 Pro/Max38 TOPS24-128GB專業級
  • 優勢: 統一記憶體架構、能效比極高
  • 應用: Core ML、本地LLM (7B-70B)
  • 生態: MLX框架、Apple Intelligence

Qualcomm - Snapdragon X 系列

產品NPU算力CPU特色
Snapdragon X Elite45 TOPSOryon (ARM)首款ARM PC晶片
Snapdragon X Plus45 TOPSOryon主流版
  • 突破: ARM架構進入Windows PC
  • 優勢: 極致能效、全天續航
  • 挑戰: x86軟體相容性

9.3 手機AI晶片

廠商產品NPU算力應用
AppleA18 Pro35 TOPSApple Intelligence
QualcommSnapdragon 8 Gen 345 TOPS生成式AI
MediaTekDimensity 930037 TOPS本地LLM
GoogleTensor G4專用TPUGemini Nano
SamsungExynos 240037 TOPSGalaxy AI

9.4 端側推理框架

框架公司支援平台特色
Core MLAppleiOS/macOSApple生態整合
TensorFlow LiteGoogle跨平台廣泛相容
ONNX RuntimeMicrosoft跨平台標準格式
OpenVINOIntelIntel硬體最佳化推理
NCNN騰訊移動端輕量高效
MLC LLM開源跨平台本地LLM

9.5 邊緣AI應用場景

邊緣AI應用金字塔:
┌─────────────────────────────────────────┐
│         本地大語言模型                    │ ← 7B-70B 參數
│         (Llama, Phi, Gemma)              │
├─────────────────────────────────────────┤
│      AI助理/Copilot/語音辨識              │ ← 日常互動
├─────────────────────────────────────────┤
│    影像處理/物件偵測/人臉辨識              │ ← 即時處理
├─────────────────────────────────────────┤
│  IoT/工業自動化/智慧家庭/車載AI            │ ← 嵌入式
└─────────────────────────────────────────┘

10. ASIC 客製化晶片專題

面對NVIDIA GPU的高價與供應限制,科技巨頭紛紛投入自研AI晶片,開啟ASIC時代。

10.1 雲端巨頭自研晶片

Google TPU

世代製程算力記憶體發布
TPU v47nm275 TFLOPS32GB HBM2e2021
TPU v5e7nm經濟版16GB HBM2e2023
TPU v5p5nm459 TFLOPS95GB HBM2e2023
TPU v6 (Trillium)4nm2x v5pHBM32024
  • 優勢: 為TensorFlow/JAX優化、成本效益高
  • 部署: 數十萬顆TPU (全球最大非NVIDIA叢集)
  • 應用: Gemini訓練、Google Search、YouTube

Amazon Trainium/Inferentia

產品定位製程算力發布
Inferentia推理7nm經濟推理2019
Inferentia2推理5nm3x效能2022
Trainium訓練7nm訓練專用2021
Trainium2訓練3nm4x效能2024
  • 策略: 減少NVIDIA依賴、降低AWS成本
  • 生態: Neuron SDK
  • 客戶: Anthropic (Claude訓練)

Microsoft Maia/Cobalt

產品定位製程狀態
Maia 100AI加速5nm (台積電)2024部署
Cobalt 100ARM CPU5nm2024
  • 目標: Azure AI成本優化
  • 應用: Copilot推理、Bing搜尋
  • 合作: OpenAI訓練推理

Meta MTIA

產品定位狀態
MTIA v1推理2023內部部署
MTIA v2推理加強2024
  • 應用: 廣告推薦、內容審核
  • 策略: 仍依賴NVIDIA GPU訓練大模型

10.2 ASIC 設計公司

公司產品客戶技術特色
BroadcomAI加速器Google (TPU), Apple客製化設計能力
Marvell雲端ASICAWS, 微軟網路+運算整合
CerebrasWSE-3研究機構世界最大晶片
GraphcoreIPU研究/企業創新架構
SambaNovaDataScale企業可重配置架構
GroqLPU推理加速極低延遲

10.3 特殊架構晶片

Cerebras WSE-3 (Wafer Scale Engine)

傳統晶片 vs Cerebras WSE-3:
┌─────────┐          ┌─────────────────────────────┐
│  GPU    │          │                             │
│ ~800mm² │    vs    │      整片晶圓 = 晶片         │
│  Die    │          │       46,225 mm²            │
└─────────┘          │      90萬核心               │
                     │      44GB SRAM              │
                     └─────────────────────────────┘
  • 創新: 整片晶圓做成單一晶片
  • 優勢: 無需跨晶片通訊、超大記憶體頻寬
  • 挑戰: 良率、散熱、成本
  • 應用: 大模型訓練、科學計算

Groq LPU

  • 定位: 推理專用、確定性延遲
  • 特色: 無需HBM (使用SRAM)
  • 效能: Llama 70B 達 300 tokens/sec
  • 應用: 即時推理服務

10.4 ASIC vs GPU 比較

維度NVIDIA GPU雲端ASIC專用ASIC
通用性最高
能效比最高
開發成本最高
生態系統CUDA (完整)自建有限
適用場景通用訓練/推理大規模雲端特定工作負載
上市時間最慢

11. 中國 AI 產業鏈

受美國出口管制影響,中國AI產業正在建立獨立供應鏈,雖面臨先進製程限制,但國產替代加速。

11.1 出口管制現況

美國對中國AI晶片出口管制時間軸:
2022.10    2023.10    2024.01    2024.10    2025+
   │          │          │          │          │
   ▼          ▼          ▼          ▼          ▼
 A100禁令   H100禁令   加強管制   更嚴限制   持續收緊
 限制算力   限制HBM    堵漏洞    第三國限制  技術封鎖

管制要點:

  • 禁止向中國出口先進AI晶片 (H100/H200/B200)
  • 限制先進製程設備 (EUV光刻機)
  • HBM記憶體出口限制
  • 雲端服務算力限制

11.2 中國GPU設計公司

公司產品製程算力狀態
華為昇騰910B/C7nm (中芯)~H100 50-60%量產
寒武紀思元5907nm約A100量產
燧原科技邃思系列12nm訓練推理量產
壁仞科技BR1007nm高算力受限
摩爾線程MTT S807nm遊戲/AI量產
天數智芯天垓1007nm通用GPU發展中

11.3 華為昇騰 - 國產龍頭

昇騰晶片系列

產品定位製程算力 (FP16)記憶體
昇騰910訓練7nm+320 TFLOPS32GB HBM2e
昇騰910B訓練7nm (SMIC)~H100 60%64GB HBM2e
昇騰910C訓練7nm改進版HBM優化
昇騰310推理12nm22 TOPS8GB

華為AI生態

華為AI技術棧:
┌─────────────────────────────────────────┐
│            應用層: 盤古大模型            │
├─────────────────────────────────────────┤
│          框架層: MindSpore              │
├─────────────────────────────────────────┤
│         工具層: CANN (AI計算框架)        │
├─────────────────────────────────────────┤
│           硬體層: 昇騰晶片               │
└─────────────────────────────────────────┘
  • MindSpore: 開源深度學習框架
  • CANN: 類CUDA的編程平台
  • 客戶: 中國雲端廠商、政府、國企

11.4 中國晶圓製造

中芯國際 SMIC

製程狀態產品限制
14nm量產成熟製程晶片
7nm (N+2)量產華為晶片無EUV
5nm發展中DUV多重曝光良率挑戰
  • 挑戰: 無法取得EUV光刻機
  • 策略: DUV多重曝光實現先進製程
  • 產能: 持續擴充成熟製程

11.5 中國AI大模型

公司模型參數量特色
百度文心一言 4.0千億級搜尋整合
阿里巴巴通義千問 2.5開源72B多模態
騰訊混元萬億MoE遊戲/社交
字節跳動豆包千億級內容創作
智譜AIGLM-4開源學術背景
月之暗面Kimi長上下文200萬字上下文
MiniMaxABAB多模態語音優勢

11.6 中國AI雲端

公司AI雲服務GPU數量特色
阿里雲靈積大規模最大雲端商
華為雲盤古昇騰為主國產化
騰訊雲AI服務混合遊戲生態
百度智能雲千帆混合模型服務
火山引擎方舟大規模字節跳動

11.7 中國AI產業挑戰與機遇

挑戰:

  • 先進製程落後2-3代
  • HBM供應受限
  • 軟體生態不成熟
  • 高端人才外流風險

機遇:

  • 國產替代政策支持
  • 龐大內需市場
  • 成熟製程仍可發展
  • 應用創新空間大

12. 機器人與具身AI

2025-2026年具身智能 (Embodied AI) 成為AI下一個重要戰場,科技巨頭紛紛佈局人形機器人。

12.1 人形機器人市場

人形機器人市場預測:
                                          ┌─────────┐
                                    ┌────┤  $38B   │ 2035
                              ┌────┤$12B│         │
                        ┌────┤ $3B│    │         │
                  ┌────┤$500M│   │    │         │
            ──────┴────┴────┴────┴────┴─────────┘
            2024   2025  2027  2030  2035
            起步   商業化  規模化  普及   成熟

12.2 主要人形機器人公司

Tesla Optimus

指標數據
目標售價$20,000-30,000
自由度28+
電池續航一整天工作
量產時間2025開始
  • 優勢: Tesla AI團隊、FSD技術移轉、製造能力
  • 應用: 工廠自動化、家庭服務
  • AI: 端到端神經網路控制

Figure 01/02

指標數據
融資$750M+ (微軟、OpenAI、NVIDIA投資)
合作OpenAI (多模態AI)
商業化BMW工廠試用
  • 特色: OpenAI GPT-4V整合
  • 能力: 自然語言互動、任務理解

1X Technologies (NEO)

  • 投資者: OpenAI
  • 產品: NEO人形機器人、EVE輪式機器人
  • 定位: 家庭與商業服務

Boston Dynamics (Atlas)

  • 歷史: 機器人領域先驅
  • Atlas: 最先進運動能力
  • 商業: Spot (四足), Stretch (物流)
  • 所有權: 現代汽車集團

其他重要玩家

公司產品投資者/背景特色
Agility RoboticsDigitAmazon物流機器人
ApptronikApollo多家通用人形
Sanctuary AIPhoenix多家認知AI
UnitreeH1/G1中國低成本人形
小米CyberOne小米消費電子背景
傅利葉GR-1中國康復起家

12.3 機器人核心零組件

執行器/關節

類型廠商應用特點
諧波減速器Harmonic Drive (日), 綠的諧波 (中)關節精度高
行星減速器Nabtesco, 中大力德重載關節扭矩大
直驅電機自研為主高響應Tesla方案
液壓Boston Dynamics高爆發複雜昂貴

感測器

類型廠商功能
力矩感測器ATI, Kistler力控制
視覺相機Intel RealSense, 奧比中光環境感知
LiDARVelodyne, 禾賽3D建圖
IMUBosch, InvenSense姿態
觸覺感測新興技術精細操作

12.4 具身AI軟體技術

具身AI技術棧:
┌─────────────────────────────────────────┐
│     高層決策: LLM/VLM (GPT-4V, Gemini)  │
├─────────────────────────────────────────┤
│     任務規劃: 行為樹、強化學習           │
├─────────────────────────────────────────┤
│     運動控制: 模仿學習、Model Predictive │
├─────────────────────────────────────────┤
│     感知融合: SLAM、物體識別、場景理解   │
├─────────────────────────────────────────┤
│     底層控制: 電機驅動、力控制           │
└─────────────────────────────────────────┘

關鍵技術:

  • 模仿學習: 從人類示範學習動作
  • 強化學習: 環境互動自我優化
  • 多模態AI: 視覺+語言+動作整合
  • 世界模型: 預測環境變化

12.5 機器人投資機會

層面投資標的類型
整機Tesla, Figure, 1X風險投資
減速器諧波傳動, 綠的諧波上市公司
電機匯川技術, 鳴志電器上市公司
感測器奧比中光, 禾賽上市公司
AI晶片NVIDIA, Intel上市公司

13. AI 能源與永續發展

AI數據中心能耗暴增,推動核能復興與永續能源創新。

13.1 AI數據中心能耗危機

AI訓練能耗演進:
                                          ┌─────────┐
                                    ┌────┤ 100GWh  │ GPT-5?
                              ┌────┤50GWh│         │
                        ┌────┤10GWh│    │         │
                  ┌────┤1GWh │    │    │         │
            ──────┴────┴────┴────┴────┴─────────┘
            GPT-2  GPT-3  GPT-4  GPT-4.5  GPT-5
            2019   2020   2023   2024    2025?
模型訓練能耗碳排放等效
GPT-31.3 GWh500噸CO2100戶年用電
GPT-4~10 GWh數千噸1000戶年用電
Llama 3.1 405B~10 GWh數千噸-
GPT-5 (預估)50-100 GWh數萬噸小城市年用電

13.2 數據中心電力需求

公司2024電力2030預估成長
Microsoft4 GW15 GW275%
Google3 GW10 GW233%
Amazon3 GW12 GW300%
Meta2 GW8 GW300%
全球AI數據中心20 GW100 GW400%

13.3 核能復興

科技巨頭簽署核能協議,推動小型模組化反應爐 (SMR) 發展。

主要核能合作

公司合作對象規模時程
MicrosoftConstellation Energy重啟三哩島 (835 MW)2028
GoogleKairos Power500 MW SMR2030
AmazonTalen Energy, X-energy多處核能2030s
Meta核能探索中規劃中-

SMR 小型模組化反應爐

公司產品功率狀態
NuScaleVOYGR77 MW/模組NRC認證
TerraPowerNatrium345 MW建設中
X-energyXe-10080 MW開發中
Kairos PowerKP-FHR140 MW開發中

13.4 再生能源

數據中心再生能源採購

公司再生能源目標現況
Google24/7無碳90%+
Microsoft100% (2025)進行中
Amazon100% (2025)進行中
Meta100%已達成

再生能源供應商

類型主要廠商數據中心應用
太陽能First Solar, 隆基PPA長約
風能Vestas, GE大規模風場
儲能Tesla, CATL電力調度

13.5 能效技術

技術節能效果狀態
液冷散熱30-40%主流
浸沒式冷卻50%+新興
低PUE設計1.1以下頂級DC
AI優化能耗10-15%Google實踐
餘熱回收供暖北歐實踐

13.6 永續發展挑戰

AI碳排放 vs 效益權衡:
┌─────────────────────────────────────────┐
│                 能耗                     │
│         ↗                               │
│       ↗   AI效益 (生產力、創新)          │
│     ↗                                   │
├─────────────────────────────────────────┤
│     平衡點: 效益 > 碳成本                │
│     解方: 核能 + 再生能源 + 能效提升      │
└─────────────────────────────────────────┘

14. GPU 產品規格完整對比

14.1 NVIDIA 歷代GPU對比

規格V100A100H100H200B100B200
架構VoltaAmpereHopperHopperBlackwellBlackwell
製程12nm7nm4nm4nm4nm4nm
電晶體211億542億800億800億2080億2080億
FP647.8 TF9.7 TF34 TF34 TF45 TF45 TF
FP3215.7 TF19.5 TF67 TF67 TF90 TF90 TF
FP16125 TF312 TF989 TF989 TF1800 TF1800 TF
INT862 TOPS624 TOPS1979 TOPS1979 TOPS3600 TOPS3600 TOPS
FP8--3958 TOPS3958 TOPS7200 TOPS7200 TOPS
FP4----14400 TOPS14400 TOPS
記憶體16/32GB HBM240/80GB HBM2e80GB HBM3141GB HBM3e192GB HBM3e192GB HBM3e
頻寬900 GB/s2 TB/s3.35 TB/s4.8 TB/s8 TB/s8 TB/s
TDP300W400W700W700W700W1000W
NVLink300 GB/s600 GB/s900 GB/s900 GB/s1.8 TB/s1.8 TB/s
定價 (雲端)舊款$10K$25-30K$25-30K$30-40K$40-50K

14.2 AMD MI系列對比

規格MI250XMI300XMI325XMI350 (預計)
架構CDNA 2CDNA 3CDNA 3+CDNA 4
製程6nm5nm3nm3nm
FP6447.9 TF81.7 TF~100 TF提升
FP3247.9 TF81.7 TF~100 TF提升
FP16383 TF1307 TF~1500 TF提升
FP8-2614 TF~3000 TF提升
記憶體128GB HBM2e192GB HBM3256GB HBM3eHBM3e
頻寬3.2 TB/s5.3 TB/s6 TB/s提升
TDP560W750W750WTBD

14.3 Google TPU對比

規格TPU v4TPU v5eTPU v5pTPU v6
定位通用經濟高效能新一代
BF16275 TF經濟版459 TF~900 TF
記憶體32GB HBM2e16GB95GB HBM2eHBM3
互連ICIICIICIICI
Pod規模4096 TPU256 TPU8960 TPU擴大

14.4 效能/瓦特比較

效能功耗比演進 (正規化):
            H100    H200    B100    B200
FP16/W      1.0     1.0     1.8     1.3
FP8/W       1.0     1.0     1.8     1.3
記憶體/W    1.0     1.8     2.4     2.4

結論: Blackwell架構帶來80%能效提升
      B200功耗增加但總效能更高

15. 產業風險與地緣政治

15.1 地緣政治風險矩陣

風險影響可能性受影響公司
台海衝突致命全產業
美中科技戰升級NVIDIA, AMD, 雲端廠
台積電產能中斷致命全產業
HBM供應短缺GPU廠商
出口管制擴大設備/軟體商
人才流動限制科技公司

15.2 台海風險分析

台灣在全球AI供應鏈角色:
┌─────────────────────────────────────────┐
│ 台積電: 90%+ AI晶片製造                  │ ← 不可替代
│ 日月光: 60%+ 先進封裝                    │ ← 高度集中
│ 台達/光寶: 50%+ 伺服器電源               │ ← 可替代性中
│ 鴻海/廣達: 60%+ AI伺服器組裝             │ ← 可轉移
└─────────────────────────────────────────┘
              ↓
       任何中斷 = 全球AI產業停擺

風險緩解:

  • 台積電美國/日本/德國設廠
  • Intel代工能力提升
  • 三星擴大先進製程
  • 供應鏈多元化

15.3 美中科技戰現況

美國管制措施

時間措施影響
2022.10禁止先進AI晶片出口A100禁售
2023.10加強管制、堵漏洞H100禁售
2024.01雲端算力限制服務受限
2024.10第三國限制全面封鎖
2025+持續收緊待觀察

中國反制措施

  • 稀土出口管制
  • 鎵、鍺出口限制
  • 反制裁法律
  • 加速國產替代

15.4 供應鏈風險

HBM供應風險

風險影響緩解措施
SK Hynix產能不足GPU交付延遲三星/Micron擴產
韓國地緣風險HBM供應中斷美國本土產能
良率問題成本上升技術改進

EUV設備風險

風險影響現況
ASML獨家供應產能瓶頸持續擴產
地緣政治 (荷蘭)出口限制已配合美國
設備交期18-24個月難以縮短

15.5 市場風險

風險機率影響
AI泡沫破裂低-中估值修正
NVIDIA競爭加劇毛利下降
開源模型崛起商業模式改變
監管加強合規成本增加
經濟衰退IT支出減少

15.6 風險緩解策略

投資者策略:

  1. 分散投資 (不只押NVIDIA)
  2. 關注供應鏈多元化公司
  3. 留意地緣政治發展
  4. 評估公司護城河深度

產業策略:

  1. 供應鏈在地化
  2. 第二供應商策略
  3. 庫存緩衝
  4. 技術自主研發

16. 投資標的完整清單

16.1 核心持股 (高確定性)

公司代號領域投資邏輯風險
NVIDIANVDAGPU設計80%市佔壟斷估值高、競爭
台積電TSM/2330晶圓製造90%先進製程地緣政治
ASMLASMLEUV設備100%壟斷週期性
SK Hynix000660.KSHBM記憶體90% HBM3e韓國風險

16.2 成長型標的

公司代號領域投資邏輯風險
AMDAMDGPU追趕者MI系列成長軟體生態弱
BroadcomAVGO網路/ASIC客製化晶片週期性
MarvellMRVL雲端ASICAWS/雲端合作競爭
ArmARMIP授權AI晶片基礎估值

16.3 台灣供應鏈

公司代號領域投資邏輯風險
台達電2308電源35%伺服器電源匯率
光寶2301電源價格競爭力毛利壓力
日月光3711封裝CoWoS龍頭產能
鴻海2317組裝DGX代工毛利低
廣達2382組裝雲端伺服器客戶集中
緯創3231組裝AI伺服器競爭
奇鋐3017散熱液冷模組規模小
雙鴻3324散熱液冷成長競爭

16.4 美國科技

公司代號領域投資邏輯風險
MicrosoftMSFT雲端/AIAzure+OpenAI反壟斷
GoogleGOOGL雲端/AIGemini+TPU廣告依賴
AmazonAMZN雲端AWS龍頭競爭
MetaMETAAI應用Llama開源監管
OracleORCL雲端AI雲成長快規模小

16.5 AI應用/軟體

公司代號領域投資邏輯風險
PalantirPLTR企業AI政府+企業估值高
ServiceNowNOW企業軟體AI工作流競爭
MongoDBMDB資料庫AI資料層虧損
DatadogDDOG監控AI可觀測估值
SnowflakeSNOW資料倉儲AI分析競爭

16.6 基礎設施

公司代號領域投資邏輯風險
VertivVRT散熱/電源數據中心龍頭週期性
EatonETN電力數據中心電力成熟
SchneiderSU.PA基礎設施整體方案歐洲
EquinixEQIX數據中心REITAI DC需求利率敏感

16.7 光通訊

公司代號領域投資邏輯風險
中際旭創300308.SZ光模組800G龍頭中國風險
CoherentCOHR光通訊垂直整合週期性
LumentumLITE光學元件雷射技術週期性
CienaCIEN光網路網路設備競爭

16.8 ETF選擇

ETF代號聚焦費用率
VanEck SemiconductorSMH半導體0.35%
iShares SemiconductorSOXX半導體0.35%
Global X Robotics & AIBOTZ機器人AI0.68%
ARK Autonomous TechARKQ自動化0.75%
Global X AI & TechAIQAI科技0.68%

16.9 投資組合建議

AI投資組合配置建議:
┌─────────────────────────────────────────┐
│ 核心持股 (40%): NVIDIA, 台積電, ASML    │
├─────────────────────────────────────────┤
│ 成長標的 (25%): AMD, Broadcom, ARM      │
├─────────────────────────────────────────┤
│ 台灣供應鏈 (15%): 台達電, 日月光, 廣達  │
├─────────────────────────────────────────┤
│ 雲端巨頭 (15%): Microsoft, Google       │
├─────────────────────────────────────────┤
│ 新興機會 (5%): 機器人, 光通訊           │
└─────────────────────────────────────────┘

風險管理:
• 單一個股不超過15%
• 台灣曝險注意地緣風險
• 定期再平衡
• 長期持有 (3-5年)

17. 市場規模與關鍵數據

17.1 整體市場

  • 2024: $200B
  • 2030: $1.8T (年增42%)

17.2 細分市場 (2024)

AI晶片: $70B

  • NVIDIA: $40B
  • HBM: $10B (SK Hynix $6B)

數據中心: $40B

  • 伺服器: $25B
  • 散熱: $8B
  • 電源網路: $7B

雲端服務: $50B

  • Azure: $15B
  • AWS: $12B
  • GCP: $10B

軟體應用: $40B

  • 生成式AI: $15B
  • 企業AI: $20B

17.3 重點公司

NVIDIA:

  • 市值: $2.5T
  • 營收: $60B
  • 毛利率: 70-75%

台積電:

  • AI晶片營收佔比: 30-35%
  • 先進製程: >50%營收

18. 關鍵結論與趨勢

18.1 供應鏈瓶頸 ⚠️

  1. HBM記憶體: SK Hynix產能限制,交期6-12月
  2. CoWoS封裝: 台積電+日月光獨家,良率要求>95%
  3. EUV光刻機: ASML唯一供應商,每台$2億
  4. 液冷散熱: 新技術,部署經驗不足

18.2 台灣角色 🇹🇼

核心地位:

  • 台積電: 90%+ AI晶片製造
  • 日月光: CoWoS封裝龍頭
  • 台達/光寶: 伺服器電源55%+
  • 鴻海/廣達: AI伺服器組裝55%+

結論: 台灣是全球AI供應鏈不可或缺的核心

18.3 未來趨勢 📈

  1. 算力需求暴增: 2030年需求>100x
  2. 散熱技術升級: 液冷→浸沒式
  3. 自研晶片興起: TPU, Trainium挑戰NVIDIA
  4. 開源模型崛起: Llama挑戰GPT
  5. AI普及化: 從科技到各行各業

18.4 投資機會總結 💡

確定性機會:

  • 台積電 (製造壟斷)
  • SK Hynix (HBM壟斷)
  • NVIDIA (設計壟斷)
  • 台達電/光寶 (電源龍頭)

成長性機會:

  • 液冷散熱廠商
  • AI應用開發商
  • 垂直產業AI

19. 完整價值鏈流程

┌────────────────────────────────────────────────────────────┐
│          AI 產業價值鏈 (從晶片到應用)                       │
├────────────────────────────────────────────────────────────┤
│                                                             │
│  【上游】晶片製造                                           │
│  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━  │
│                                                             │
│  晶片設計 → 晶圓製造 → 封裝測試 → GPU成品                  │
│  NVIDIA     台積電     日月光     H100                      │
│    ↓          ↓          ↓          ↓                       │
│  支援       支援       支援       配套                       │
│  EDA        ASML       CoWoS      HBM(SK Hynix)            │
│  IP授權     材料商     TSV技術    散熱(Vertiv)             │
│            設備商                電源(台達電)              │
│                                                             │
│  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━  │
│                                                             │
│  【中游】系統整合                                           │
│  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━  │
│                                                             │
│  伺服器組裝 → 數據中心 → 雲端平台                          │
│  鴻海/廣達   CoreWeave   Azure/AWS                         │
│    ↓            ↓           ↓                               │
│  配套        配套        配套                               │
│  PDU         液冷        網路(Mellanox)                     │
│  機櫃        UPS         儲存(Pure)                         │
│              電力                                           │
│                                                             │
│  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━  │
│                                                             │
│  【下游】軟體應用                                           │
│  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━  │
│                                                             │
│  AI框架 → 模型訓練 → 應用服務 → 終端用戶                   │
│  PyTorch   GPT-4     ChatGPT    消費者/企業                 │
│    ↓         ↓          ↓           ↓                       │
│  支援     支援      應用        價值                        │
│  MLOps    資料      文字生成    提升效率                    │
│  工具鏈   算力      圖像生成    降低成本                    │
│          人才      程式開發    創新服務                     │
│                                                             │
└────────────────────────────────────────────────────────────┘

文檔總結:

本文檔完整梳理了AI產業從上游晶片設計製造、中游系統整合數據中心、到下游軟體應用的全鏈條,涵蓋:

  • 8大產業層次 (晶片/散熱/電源/儲存網路/光通訊/雲端/軟體/邊緣AI)
  • 150+ 重點企業 (市佔率/產品/技術/投資邏輯)
  • 完整供應鏈關係 (台積電/NVIDIA/SK Hynix等)
  • 市場規模數據 ($200B→$1.8T)
  • 專題分析: ASIC晶片、中國AI產業、機器人具身AI、能源永續
  • 地緣政治風險: 台海、美中科技戰、供應鏈風險
  • 完整投資標的: 核心持股、成長標的、台灣供應鏈、ETF
  • GPU規格對比: NVIDIA/AMD/Google TPU完整數據

台灣在AI供應鏈的核心地位不可替代,掌握晶片製造(台積電)、封裝(日月光)、電源(台達/光寶)、伺服器組裝(鴻海/廣達)等關鍵環節。

2025-2026關鍵趨勢:

  1. Blackwell架構大規模部署
  2. 液冷/浸沒式冷卻成為標配
  3. 邊緣AI與AI PC普及
  4. 人形機器人商業化起步
  5. 核能復興支撐AI能源需求

文檔更新: 2026年1月 數據來源: 各公司財報、市場研究報告、產業分析 注意: 市場佔有率為估計值,實際情況可能有所差異 本文檔不構成投資建議,投資有風險,請謹慎評估