據(jù)知情人士透露,字母表公司旗下的谷歌正推進(jìn)一項(xiàng)新計(jì)劃,旨在優(yōu)化其人工智能芯片對全球最主流 AI 軟件框架 PyTorch 的運(yùn)行能力。此舉劍指英偉達(dá)在人工智能計(jì)算市場長期以來的主導(dǎo)地位。
該計(jì)劃是谷歌雄心勃勃的戰(zhàn)略布局之一,目標(biāo)是讓其張量處理器(TPU)成為英偉達(dá)市場領(lǐng)先的圖形處理器(GPU)的可靠替代品。隨著谷歌努力向投資者證明其人工智能投資已產(chǎn)生回報(bào),張量處理器的銷售額已成為谷歌云業(yè)務(wù)收入的關(guān)鍵增長引擎。
但知情人士稱,僅靠硬件不足以推動(dòng)市場普及。這項(xiàng)內(nèi)部代號為 “TorchTPU” 的新計(jì)劃,核心目標(biāo)是消除阻礙張量處理器普及的關(guān)鍵壁壘 —— 通過實(shí)現(xiàn)張量處理器與 PyTorch 軟件的完全兼容,并提升開發(fā)者使用友好度,滿足那些已基于 PyTorch 搭建技術(shù)架構(gòu)的客戶需求。部分知情人士還表示,谷歌正考慮將該軟件的部分組件開源,以加快客戶的采用進(jìn)程。
知情人士指出,相較于此前為支持張量處理器運(yùn)行 PyTorch 所做的嘗試,谷歌此次對 TorchTPU 投入了更多的組織關(guān)注度、資源與戰(zhàn)略權(quán)重。原因在于,越來越多有意采用張量處理器的企業(yè),都將軟件生態(tài)視為技術(shù)落地的瓶頸。
PyTorch 是一個(gè)由元宇宙平臺(tái)公司(Meta Platforms)深度支持的開源項(xiàng)目,也是開發(fā)者構(gòu)建人工智能模型最常用的工具之一。在硅谷,極少有開發(fā)者會(huì)逐行編寫能在英偉達(dá)、超威半導(dǎo)體或谷歌芯片上運(yùn)行的代碼。
相反,開發(fā)者們會(huì)依賴 PyTorch 這類工具 —— 它是一套預(yù)制代碼庫與框架的集合,可自動(dòng)完成人工智能軟件開發(fā)中的諸多通用任務(wù)。PyTorch 于 2016 年首次發(fā)布,其發(fā)展歷程與英偉達(dá)的 CUDA 軟件緊密相連。部分華爾街分析師認(rèn)為,CUDA 正是英偉達(dá)抵御競爭對手最強(qiáng)有力的 “護(hù)城河”。
英偉達(dá)的工程師耗費(fèi)多年時(shí)間,確?;?PyTorch 開發(fā)的軟件能在其芯片上實(shí)現(xiàn)極速且高效的運(yùn)行。相比之下,谷歌長期以來一直讓內(nèi)部龐大的軟件開發(fā)團(tuán)隊(duì)使用另一款名為 Jax 的代碼框架,其張量處理器則通過 XLA 工具保障該代碼的高效運(yùn)行。谷歌自身的大部分人工智能軟件生態(tài)與性能優(yōu)化工作,均圍繞 Jax 展開,這就導(dǎo)致谷歌芯片的實(shí)際應(yīng)用方式,與客戶的使用需求之間形成了巨大鴻溝。
谷歌云發(fā)言人未就該項(xiàng)目的具體細(xì)節(jié)置評,但向路透社證實(shí),此舉將為客戶提供更多選擇。
該發(fā)言人表示:“我們看到市場對張量處理器與圖形處理器基礎(chǔ)設(shè)施的需求正在激增,且增速持續(xù)加快。我們的核心關(guān)注點(diǎn)是,無論開發(fā)者選擇基于何種硬件開展構(gòu)建工作,都能為他們提供所需的靈活性與規(guī)模支持?!?/p>
面向客戶開放張量處理器
長期以來,字母表公司將其自研芯片(即張量處理器)的絕大部分產(chǎn)能都預(yù)留作內(nèi)部使用。這一局面在 2022 年被打破 —— 當(dāng)時(shí)谷歌云計(jì)算部門成功游說公司,獲得了張量處理器銷售業(yè)務(wù)的主導(dǎo)權(quán)。這一調(diào)整大幅提升了谷歌云的張量處理器配額。隨著客戶對人工智能技術(shù)的興趣日益濃厚,谷歌也在通過擴(kuò)大張量處理器的產(chǎn)能與對外銷售量,把握市場機(jī)遇。
然而,全球多數(shù)人工智能開發(fā)者使用的 PyTorch 框架,與谷歌芯片當(dāng)前深度優(yōu)化的 Jax 框架并不兼容。這意味著,大多數(shù)開發(fā)者若想采用谷歌芯片,并使其性能媲美英偉達(dá)產(chǎn)品,就必須投入大量額外的工程開發(fā)工作。在日新月異的人工智能賽道上,這類工作需要耗費(fèi)大量的時(shí)間與資金成本。
若谷歌的 “TorchTPU” 計(jì)劃能夠成功落地,將大幅降低那些尋求英偉達(dá) GPU 替代品的企業(yè)的技術(shù)遷移成本。英偉達(dá)的市場主導(dǎo)地位,不僅源于其硬件優(yōu)勢,更得益于其 CUDA 軟件生態(tài) —— 該生態(tài)已深度嵌入 PyTorch,成為企業(yè)訓(xùn)練和運(yùn)行大型人工智能模型的默認(rèn)方案。
知情人士稱,企業(yè)客戶一直向谷歌反饋,張量處理器在人工智能工作負(fù)載場景中較難落地,原因是這類芯片歷來要求開發(fā)者切換至谷歌內(nèi)部青睞的機(jī)器學(xué)習(xí)框架 Jax,而非大多數(shù)人工智能開發(fā)者早已熟練使用的 PyTorch。
與元宇宙平臺(tái)公司聯(lián)手攻關(guān)
知情人士透露,為加快研發(fā)進(jìn)度,谷歌正與 PyTorch 的開發(fā)及維護(hù)方元宇宙平臺(tái)公司展開緊密合作。此前《信息報(bào)》曾率先報(bào)道,兩家科技巨頭正在磋商相關(guān)合作協(xié)議,內(nèi)容包括元宇宙平臺(tái)公司獲得更多張量處理器的使用權(quán)限。
谷歌最初為元宇宙平臺(tái)公司提供的服務(wù),是由谷歌全權(quán)管理的模式:像元宇宙平臺(tái)這樣的客戶,需部署谷歌設(shè)計(jì)的芯片來運(yùn)行谷歌的軟件與模型,同時(shí)由谷歌提供運(yùn)維支持。知情人士表示,元宇宙平臺(tái)公司在推動(dòng)張量處理器適配軟件研發(fā)方面有著明確的戰(zhàn)略考量 —— 此舉有助于降低其模型推理成本,推動(dòng)自身人工智能基礎(chǔ)設(shè)施擺脫對英偉達(dá) GPU 的依賴,從而增強(qiáng)在供應(yīng)鏈談判中的話語權(quán)。
元宇宙平臺(tái)公司對此不予置評。
今年以來,谷歌已開始直接向客戶的數(shù)據(jù)中心銷售張量處理器,不再將其使用權(quán)限局限于自家云平臺(tái)。本月,谷歌資深高管阿明?瓦赫達(dá)特被任命為人工智能基礎(chǔ)設(shè)施業(yè)務(wù)負(fù)責(zé)人,直接向谷歌首席執(zhí)行官桑達(dá)爾?皮查伊匯報(bào)。
谷歌需要這套基礎(chǔ)設(shè)施來支撐兩方面的需求:一是運(yùn)行自身的人工智能產(chǎn)品,包括 Gemini 聊天機(jī)器人與人工智能驅(qū)動(dòng)的搜索服務(wù);二是為谷歌云的客戶提供算力支持 —— 目前谷歌云正面向安索普(Anthropic)等企業(yè)銷售張量處理器的使用權(quán)限。