谷歌吹噓自研芯片TPU4組成的超算是英偉達A100超算性能的1.7倍 – 藍點網
谷歌日前公布了該公司用于訓練人工智能模型 PaLM 的谷歌超級計算機的更多細節,谷歌稱這個超級計算機比英偉達的吹噓成的超算超算同類系統速度更快、功耗更低。自研U組無錫美女兼職外圍上門外圍女(電話微信181-8279-1445)一二線城市預約、空姐、模特、留學生、熟女、白領、老師、優質資源
目前 AI 行業主要依靠英偉達的芯片性專用加速卡進行訓練,典型代表是英偉 OPENAI 使用 20000~30000 張 NVIDIA A100 加速卡,早前英偉達還推出了最新加速卡 NVIDIA H100,達A的倍性能是藍點 A100 的三倍。
谷歌雖然也使用英偉達的谷歌加速卡,不過谷歌自己也在研發芯片,吹噓成的超算超算比如谷歌新超級計算機使用的自研U組就是谷歌自己研發的第四代張量處理單元 (TPU)。
TPU 主要用于谷歌的芯片性人工智能訓練,谷歌稱公司 90% 的英偉人工智能和機器學習訓練都是基于 TPU 單元的,即通過模型提供數據的達A的倍無錫美女兼職外圍上門外圍女(電話微信181-8279-1445)一二線城市預約、空姐、模特、留學生、熟女、白領、老師、優質資源過程,讓這些處理單元在用于類似人類的藍點文本響應查詢和圖像生成領域發揮作用。

谷歌最新的張量處理單元是第四代即 TPU4,谷歌自 2020 年開始將 TPU4 部署在數據中心組成超級計算機供內部使用。
谷歌本周發布了一篇新論文介紹 TPU4 及 TPU4 組成的超級計算機,谷歌工程師利用自己定制開發的光開關將 4000 多個 TPU4 連接在一起組成超算。
難點在于如何讓這些處理單元組合起來提供高速運算,因為諸如 ChatGPT、Bard 這類模型數據量太大,靠單個芯片無法支撐。
相反,這些模型必須利用數量夸張的計算單元,然后將數據分布存儲在上面,同時還要求每個計算單元能夠協同工作數周甚至更長的時間,因此這是一個技術難點。
所以最終谷歌選擇自己定制開發專用的光開關,這樣 TPU4 超算可以輕松動態配置處理單元之間的連接,降低延遲、提高性能滿足計算需求。
性能對比方面,谷歌在論文中表示對于同等大小的系統,TPU4 超算比 NVIDIA A100 超算快 1.7 倍、能效提高 1.9 倍,A100 上市時間與 TPU4 完成開發類似,所以可以對比,而最新發布的 H100 屬于更先進的產品了,谷歌沒對比。
那么標題中為什么要說谷歌 “吹噓” 呢?我們倒不是懷疑谷歌的研發能力,主要是谷歌自研的這些芯片 (包括用于手機上的 AI 芯片) 都不對外出售的,也就是只有谷歌自己能使用。
所以即便性能提升多少對其他 AI 企業來說好像也沒太大意義,不過谷歌也倒不是完全封鎖,谷歌通過 Google Cloud 云計算服務對外出租 Cloud TPU 算力,所以 AI 企業要想使用 TPU 還必須使用 Google Cloud,妥妥的捆綁銷售了,要知道云計算成本可比自己購買芯片后長期使用的成本高的多,所以對大型 AI 企業來說這并不劃算。
另外谷歌暗示該公司還在開發新一代 TPU,畢竟 TPU4 都是 2020 年之前的事兒了,谷歌要研發第五代張量計算單元與 NVIDIA H100 競爭。