「NVIDIA有CUDA(應用軟體加速程式庫),AMD的nstinct加速器算力雖高,但軟體方面,別人發展這麼久,AMD怎麼趕得上?」AMD Solutions Day 2023上,資深業務副總林建誠直球對決業界對AMD最常見的疑問。他強調,AMD發展軟體ROCm已6~7年,下半年第6代就將推出,強調開源對用戶利多於弊,而另一優勢是只需用較少GPU就能訓練大型AI模型。
今年繪圖晶片雙雄角力戰場擴及AI領域,AMD強調不只有CPU及GPU,還包括FPGA及SOC,AI領域的布局更從雲端邊緣運算及終端逐漸完整,就看終端客戶買不買單。
AMD代號Genoa的第4代EPYC伺服器處理器去年推出,包括對雲原生應用服務開發的代號Bergamo最高核心數已經來到128核,以及針對科學運算需求(如熱傳導或流體力學)推出代號Geona X處理器,針對電信與邊緣運算的代號Siena伺服器處理器下半年也將問世,去年下半年並將Ryzen放入伺服器入門級位置,另外Xilinx針對裝置端推論用途的Versal SoC,以及面向消費端的Ryzen 7040 AI筆電處理器,讓產品陣線更為完整。
而由於算力效能受肯定,雲端客戶包括AWS、Meta、微軟Azure從上一代就積極採用AMD EPYC平台,加上針對AI應用推出的加速器Instinct MI300X及Instinct MI300A(APU晶片)今年底前將問世,跟NVIDIA的AI繪圖卡H100及未來將推出的Superchip Grace Hopper對標,兩巨頭狹路相逢,AMD能否在AI戰場拿下一局也受矚目。
AMD也在20日秀出目前已經採用AMD平台進行的國際大客戶AI專案一壯聲勢,林建誠指出,除蟬聯全球500大超級電腦第一Frontier的正投入癌症研究,全球第三大超級電腦LUMI位於芬蘭,也協助艾倫人工智能研究所(AI2)籌劃一個芬蘭語的大型語言模型OLMo,含130億個自然語言處理參數,另外,韓國電信也基於AMD平台建立一個111億個參數的大語言模型。
「今年底會有超過800個AI專案,AWS 跟甲骨文也宣布第2季度導入Geona,」林建誠表示,AWS開發自有ARM解決方案相當知名,但在AI應用上導入超過100個Instinct AI加速器,顯然也是因為看好AMD新平台效能之故,另外META上週也宣布今年下半導入Pergamo。
林建誠表示,相同的AI模型而言,使用AMD的MI300X可比對手使用較少的GPU,相對更經濟實惠,「Get more,pay less!」他說,而不會如對手倡議的the more you buy ,the more you save(買越多越賺到),「語言模型非常大,對客戶而言用越少GPU是很重要的,因為成本可以更低。」他說,當只有一家GPU供應商時很難比較,但當供應商多元時,除PUE之外,總耗電量也應關注。
Hugging Face是一家聊天機器人服務公司,目前已有50萬種AI模型,每周有超過5000個AI模型上線,也將以AMD平台進行優化。
林建誠強調,AMD針對AI加速器推的軟體庫ROCm從2016年開始,至今已6~7年,但很多人會質疑,對手NVIDIA的CUDA已經做很久,AMD怎麼趕得上?對此林建誠也提3個回應,首先是AMD在AI的軟體ROC m下半年將跨入第6代,發展時間已6~7年不算短;其次,AMD是走開放架構;第三是AMD的AI加速器生態系成熟度已經很高。
「對手是端到端都提供方案,我們提供硬體跟軟體,讓客戶去選擇開放架構及模型,企業若用開放框架,就會使用到ROCm跟Instinct硬體已經搭配優化過的方案,這是你自己基於開源架構建立的模型,有自己的解決方案,藉此累積經驗,而不只是複製API,結果很多知識都是別人的。」他說。
「我們希望提供價值給廠商,希望藉由開源,台灣夥伴不只是硬體搭配出貨,雖然這樣很快,但裡面能創造的加值跟客戶關係深化空間就不多,這是很大差異。」AMD面對數百位供應商的Solution Day以軟體開放性及高效能低成本兩大訴求向產業客戶招手,能否奏效,2024年將是關鍵時刻。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:產業評析/AMD AI軟體追得上NVIDIA?官方直球對決用兩關鍵拚勝負
地址:https://www.torrentbusiness.com/article/45567.html