4月14日,晶片巨頭英偉達公司在公告中表示,計劃首次完全在美國生產下一代人工智慧晶片( AI chip)和超級電腦(S upercomputer 。下一代人工智慧晶片( AI chip)指的是英偉達近期推出市場的Blackwell 晶片,擬在亞利桑那州生產和測試。超級電腦計畫在德州製造,據悉兩座超級電腦生產工廠將在未來12 至15 個月內進入大規模生產階段。

什麼是AI晶片?什麼是超級電腦?

AI晶片,即人工智慧晶片(Artificial Intelligence Chip),是指面向AI演算法專門為執行人工智慧相關任務(尤其是深度學習、機器學習等運算密集型任務)而設計的處理器晶片(ASIC)。其目標是比傳統通用處理器(如CPU、GPU)更有效率地運行AI 演算法。傳統的CPU、GPU都可以拿來執行AI演算法,但是速度慢,效能低。

類型

全稱

說明

GPU

圖形處理單元

最常用於AI 訓練(如NVIDIA 的晶片),並行運算能力強。

TPU

張量處理單元(Tensor Processing Unit)

Google 專為AI 推理與訓練客製化的晶片。

ASIC

應用專用積體電路

完全為特定AI 功能設計的客製化晶片,效率極高。

FPGA

現場可程式閘陣列

靈活性強,可依需求配置邏輯功能。

超級計算機,英偉達所描述的是由數百上千塊AI 晶片(如GPU)組成、專門用於人工智慧訓練與推理的高效能運算叢集。超級電腦專為訓練和運行大型人工智慧模型而設計。

英偉達在公告中將這兩個概念統稱為AI超級電腦(AI Supercomputers)。

預計未來,AI超級電腦將是人工智慧時代不可或缺的基礎設施,也是支撐GPT-4、Sora、Midjourney 等AI 模型背後的算力支柱。

AI 工業化和「AI 即基礎設施」的時代之下,超高性能算力基礎設施或同新能源、晶片一樣成為各國競爭的戰略資源。

英偉達在公告中將AI 超級電腦視為「AI 工廠」——新一代資料中心的核心動力,專為處理人工智慧任務而生。 「它們構成了新興AI 產業的基礎設施......預計將在未來數十年(在美國)創造數十萬個就業機會,並帶來數萬億美元的經濟安全收益。”

這一新興AI 產業基礎設施正在美國由英偉達建造。在AI基礎設施領域,英偉達最新公告表示只需要在未來四年,英偉達透過與其它平台合作即可在美國生產價值高達5,000 億美元的價值。

但隨著「Web3+AI」概念的普及,我們尚不清楚在AI時代網路平台是否仍會遵循當前傳統網路時代其依賴晶片巨頭的模式。去中心化的AI概念,即是在可能到來的AI時代、元宇宙時代將資料主權、資料隱私和安全還給用戶,由用戶做主。

可以確定的是,在Web3的驅動下,AI產業遵循當前中心化網路發展的模式不是未來的主流。

PowerBeats認為,在一個由使用者做主的去中心化網路時代,AI基礎設施也必然要去中心化。英偉達所建構的AI基礎設施或作為底層驅動因素賦能分散式的鏈上項目或平台。例如DeCloud(去中心化雲端算力)平台將可基於強大的AI基礎設施成就更高效能、更低延遲、更便宜的算力資源。據悉去中心化雲算力平台PowerVerse即採用英偉達晶片建構雲算力分散式節點。

根據英偉達公告,其將利用先進的AI、機器人和數位孿生技術來設計和運作上述AI工廠,包括創建工廠的數位孿生模型,建造自動化製造機器人等。

我們關注新興科技時代下,數位孿生模型創建、機器人訓練、代理式AI執行任務等應用場景所使用資料的隱私性和安全性,我們也期待基於Web3底層操作邏輯上的AI和元宇宙的發展。

參考:

https://blogs.nvidia.com/blog/nvidia-manufacture-american-made-ai-supercomputers-us/