AI 算力爆發!四大新興賽道卡位風口

GPT模型在持續迭代過程中,能力持續增強,算力需求同樣也呈幾何倍增長。


(相關資料圖)

現階段的 ChatGPT 是在擁有 3000 億個單詞的語料基礎上預訓練擁有 1750 億參數的模型。

據 OpenAI 測算,2012 年以來全球頭部 AI 模型訓練算力需求 3-4 個月翻一番,每年頭部訓練 模型所需算力增長幅度高達 10 倍,遠超摩爾定律的增長速度。

據此前 IDC 預測,預計到 2025 年,中國數據圈將增長至 48.6ZB,占全球數據圈的 27.8%,成為全球最大的數據圈。

AI 大算力的高需求將提升服務器性能,AI 服務器需搭載多個 CPU 和 GPU 處理器,同時服務器 CPU性能不斷升級,要求內存技術同步升級。

DDR5、HBM、CXL、NVLink 等新興技術有望加速滲透,并充分受益于 AI 帶來的算力需求增長。

AI 服務器

服務器一般可分為通用服務器、云計算服務器、邊緣服務器、AI服務器等類型。

AI服務器專為人工智能訓練和推理應用而設計,大模型帶來算力的巨量需求,有望進一步推動AI服務器市場的增長。

其中,訓練任務對服務器算力要求較高,需要訓練型服務器提供高密度算力支持,典型產品有中科曙光X785-G30和華為昇騰Atlas 800(型號9000、型號9010)。

一個典型的人工智能服務器的 DRAM 容量是普通服務器的 8 倍,NAND 容量是普通服務器的 3 倍。

根據IDC數據,2022年全球AI服務器市場規模202億美元,同比增長29.8%,占服務器市場規模的比例為16.4%,同比提升1.2pct。

TrendForce集邦咨詢統計,2022年AI服務器采購占比以北美四大云端業者Google、AWS、Meta、Microsoft合計占66.2%為最,而中國近年來隨著國產化力道加劇。國內AI服務器頭部廠商包括:浪潮信息、超聚變、紫光股份(新華三)、中興通訊、中科曙光、工業富聯等。

資料來源:TrendForce

根據 TrendForce,2023 年 ChatGPT 相關應用有望再度刺激 AI 相關領域,預計 2023 年出貨量增長率可達8%,2022-2026 年復合成長率將達 10.8%。

01

DDR5: 新一代內存接口芯片

海量數據對存儲的需求持續推動內存接口芯片量價齊升和市場高速擴容。

持續受益于服務器出貨量增長和單臺服務器內存模組用量不斷上升。

內存接口是服務器 CPU 與內存橋梁,當前正迎來DDR5 升級。

從存儲的分類看,存儲主要可分為RAM(隨機存儲器)和ROM(只讀存儲器)。

RAM可分為SRAM(靜態隨機存儲器)和DRAM(動態隨機存儲器)。

SDRAM(同步動態隨機存取存儲器)是在DRAM的基礎上發展而來,為DRAM的一種。

DDR SDRAM(雙倍速率同步動態隨機存儲器)又在SDRAM的基礎上發展而來,為具有雙倍傳輸率的SDRAM,其數據傳輸速度為系統時鐘頻率的兩倍,由于速度增加,其傳輸性能優于傳統的SDRAM。

DDR SDRAM經歷了DDR2、DDR3、DDR4等幾代技術更迭,其差異性主要體現存儲器的電源電壓值越來越低,而數據傳輸速率卻是呈幾何倍數增長,同時存儲容量也隨之大幅增加。

DDR5 內存性能遠超 DDR4 的規格上限,配套內存接口芯片性能及技術難度隨之提升。

根據市場調研機構推測,DDR5 已占據整個 DRAM 市場份額的 10%,2024年則將進一步擴大至 43%。服務器市場對高性能有著絕對的需求,可能最先推廣DDR5。

隨著新一代DDR產品的升級,內存接口芯片有望迎來量價齊升,DRAM市場有望開啟新一輪增長。

數據來源:EEtop

內存接口芯片行業壁壘高,競爭格局相對較好。國內瀾起科技正在拓展津逮@服務器平臺&PCIe Retimer 和 AI 芯片產品線;聚辰股份SPD 受益于算力需求增加及 DDR5 升級。SPD 用于服務器等領域,受益于算力需求增加及 DDR5 升級。聚辰股份和瀾起科技合作開發配套新一代 DDR5 內存條的 SPD 產品,該產品系列內置 SPD EEPROM,系 DDR5 內存模組不可或缺組件。

02

HBM:為大算力芯片提供支撐

高帶寬存儲器(HBM)是一款新型的CPU/GPU 內存芯片,通過將多個DDR芯片堆疊在一起,實現大容量,高位寬的DDR組合陣列。

HBM 可支持更高速率的帶寬,并實現高于256GBps 的突破性帶寬,單顆粒的帶寬遠超過DDR4 和GDDR6。

HBM將為大算力芯片提供能力支撐,同時生成類模型也會加速 HBM內存進一步增大容量和增大帶寬。

如今搭載于新興AI應用的內存芯片亟待升級,這種設計能夠大大提升信息交換的速率。

資料來源:AMD

從競爭格局來看,全球范圍內,HBM2內存核心廠商主要包括SK海力士、三星、Altera、英特爾和超微半導體等。

全球第一梯隊廠商主要有SK海力士、三星、Altera和英特爾;第二梯隊廠商有超微半導體和美光。

海力士HBM技術起步早,占據較大市場,2018年發布HBM2,2021年發布全球首款HBM3,目前在研HBM4。

三星從HBM2開始布局,2016年量產HBM2,2021年2月,三星電子推出了HBM-PIM(存算一體),將內存半導體和AI處理器合二為一,2022年HBM3已量產。

國內布局廠商中,通富微電在Chiplet、WLP、SiP、Fanout、2.5D、3D堆疊等方面均有布局和儲備;深科技是國內最大的獨立DRAM內存芯片封測企業,全球第二大硬盤磁頭制造商,全資子公司沛頓科技封裝技術包括 wBGA/FBGA 等,具備先進封裝 FlipChip/TSV 技術(DDR4 封裝)能力;長電科技具有高集成度的晶圓級WLP、2.5D/3D、系統級(SiP)封裝技術和高性能的Flip Chip和引線互聯封裝技術;兆易創新是國內存儲龍頭,是國內技術最為先進的存儲廠商,NORFlash、NAND Flash及MCU為主要產品的業務板塊。

TrendForce 預估 2023-2025 年 HBM 市場年復合成長率有望成長至 40-45%以上。

03

CXL:存儲芯片界的CPO

隨著存儲成本不斷增加,傳統的PCI-e技術逐漸乏力。在此背景下,基于PCI-e協議的CXL技術應運而生。

CXL全稱為ComputeExpressLink,是由英特爾于2019年3 月在 Interconnect Day 2019 上推出的一種開放性互聯協議,能夠讓 CPU 與 GPU、FPGA 或其他加速器之間實現高速高效的互聯,從而滿足高性能異構計算的要求。

快速成長的人工智能(AI)與機器學習(ML)新興任務,持續激增的云端運算以及網絡和邊緣的“云端化”將成為推動CXL發展的重要因素之一。

CXL技術用途:

資料來源:CXL Consortium

CXL聯盟董事會成員包括Intel、Google、IBM、Facebook等科技巨擘,發起者Intel擁有80%服務器CPU市場份額。

CXL聯盟成員:

根據TrendForce,CXL導入將隨著未來CPU內建CXL功能而普及化。同時CXL建立數據高速互聯性的優點,有助于擴展AI算力,未來AI服務器將能見到更多采用CXL的設計。

瀾起科技推出首款支持CXL的MXC芯片并研發支持CXL的PCIe Retimer芯片。

美光科技在 22 年 5 月與投資者交流時曾預測 CXL 相關產品的市場規模,到 2025 年預計將達到 20 億美金,到 2030 年 可能超過 200 億美金。

04

NVLink:芯片互連技術

NVLink 是為了解決服務器內部 GPU 之間點到點通訊的一種協議。

英偉達在2023年美國消費電子展(CES)上,發布了數據中心專屬CPU——“Grace CPU超級芯片”。該芯片由兩顆CPU芯片組成,其間通過NVLink-C2C技術進行互連。

NVLink-C2C技術是一種新型的高速、低延遲、芯片到芯片的互連技術,可最大化提升系統吞吐量。

與Chiplet技術有異曲同工之妙,可支持定制裸片與GPU、CPU、DPU、NIC、SoC實現互連。

第四代 NVIDIA? NVLink?技術可為多 GPU 系統配置提供高于以往 1.5 倍的帶寬,以及增強的可擴展性,進而實現超快速的深度學習訓練。

隨著模型參數數量增大,訓練所需要算力不斷增長,英偉達有望進一步鞏固公司龍頭地位。

國內廠商浪潮推出的NF5688M6是新一代NVLink AI 服務器,在超大規模數據中心研發的同時擁有高性能,高兼容,強擴展性能。在6U空間內支持2顆Intel最新的Ice Lake CPU和8顆NVIDIA最新的NVSwitch全互聯 A800 GPU,結合AI算力資源調度平臺AIStation,能夠釋放強大AI計算性能。

隨著人工智能、機器學習、高性能計算、數據中心等應用市場的興起,內存產品設計的復雜性正在快速上升,并對帶寬提出了更高的要求。海量的算力數據和不斷上升的寬帶需求持續驅動人工智能新技術發展。

1.ChatGPT:人工智能新興賽道,核心環節全梳理

2.機器視覺:AI高成長賽道,產業鏈全景解析

3.邊緣計算:AI算力新風口,核環節全梳理

4.MLOps框架全解析

5.人工智能芯片:高算力核心底座

6.AIGC(人工智能生成內容)白皮書

7.AI頂規芯片:人工智能稀缺賽道

關鍵詞:
圖片版權歸原作者所有,如有侵權請聯系我們,我們立刻刪除。
新化月報網報料熱線:886 2395@qq.com

相關文章

你可能會喜歡

最近更新

推薦閱讀