產業觀察:英偉達新規CUDA轉換受限 自建生態方是長久之道

集微網報導,軟件生態系統是指在一個共同的技術平臺上,衆多參與者協同合作,最終形成大量的軟件解決方案或者服務。而這樣的生態在開發者場景中可以起到極爲重要的作用,能夠重塑整個AI的工作流程,加強開發者黏性。

根據tomshardware的報導,日前英偉達在其軟件平臺CUDA的更新許可條款中,禁止使用翻譯層在其他硬件平臺上運行基於CUDA的軟件。對於這一政策變動,業界的普遍解讀是,英偉達爲了防止其他廠商通過ZLUDA等翻譯層使用CUDA代碼,也即限制了其他廠商直接將CUDA生態軟件通過ZLUDA等轉換後使用在其他AI芯片平臺上。

CUDA作爲英偉達的軟件,在與硬件配合後,可以十分高效地驅動AI模型,成爲衆多AI廠商訓練推理大模型時的首選,這也是支撐英偉達在當前AI計算領域統治地位的重要支柱。然而,隨着更多具有競爭力的硬件問世,越來越多用戶希望能在其他平臺上運行他們的CUDA程序。而使用如ZLUDA這類翻譯層,在非英偉達硬件上運行CUDA程序是最便捷的方式(此外也可以重新編譯代碼)。

這顯然對英偉達在AI應用領域的地位造成了影響,成爲本次英偉達決定禁止使用翻譯層在其他硬件平臺上運行CUDA應用程序的原因。其實,自2021年以來,英偉達就已經在網上公示的許可條款中禁止使用繙譯層在其他硬件平臺上運行基於CUDA的軟件了。現在,英偉達又將這則警告添加到CUDA 11.6版本的條款當中。從長遠來看,英偉達無疑將會通過更多設置法律障礙的方式,阻止在第三方硬件上通過翻譯層運行CUDA軟件。

在開發者的日常流程中,首個環節是數據管理,包括數據的提取(Extraction)、變形(Transform)、加載到應用端(Load),這些流程合稱ETL;隨後還有數據的存儲,數據訓練、驗證(可視化)、推理等多個環節。足夠良好的軟件生態能夠極大影響上述工作流程,通過發達的軟件生態支持,能夠極大提高工作效率,對開發者的黏性極大增加,形成正反饋,提高軟件生態的壁壘。

在CUDA問世之前,人們想要調用GPU的計算能力必須編寫大量的底層代碼或借用圖形API,對使用高級語言爲主的程序員來說十分不便。這種情況促使英偉達決定構建一套與之相配合的計算平臺。2006年CUDA發佈,2007年正式推出CUDA1.0公測版本。2008-2010年CUDA平臺得到進一步發展,拓展了新區域的同步指令、擴充全速常量內存等。英偉達通過向各軟件廠商免費提供開發工具,使得CUDA生態初具規模。程序員無需再通過圖形API調用GPU,而是可以直接採用類似C語言的方式直接操控GPU。

CUDA包含的生態組分衆多,包括編程語言和API、開發庫、分析和調試工具、數據中心和集羣管理工具,以及GPU硬件等多個大類。每一大類中都包含了大量的組件。這些都是英偉達以及開源生態開發者們在二十年間日積月累所形成。

以移植方式兼容CUDA生態

當然,CUDA生態系統雖然龐大且具有先發優勢,但並非無可替代。由於英偉達佔據了絕大部分AI訓練市場,在CUDA 之外尋找一個第二選項,是許多AI模型企業經營中的重要策略。

對於AMD、英特爾,以及其他追趕者來說,雖然通過ZLUDA這類翻譯層直接移植軟件被禁止,但是重新編譯現有的CUDA程序仍然合法。因此,一方面持續推出更優秀的硬件產品,建立自己的軟件生態,吸引更多軟件開發者爲這些新平臺設計軟件。另一方面則利用開源社區提供的兼容工具,以移植方式兼容CUDA生態,也是一個重要的補充。

比如,ROCm是AMD基於旗下GPU產品開發的開源計算生態,其在極大程度上仍然兼容了CUDA。軟件庫支持是可用性的核心。2015 年以來ROCm生態持續豐富組件。2016年, ROCm1.0 階段,基本的數據格式、基本運算指令、常用的基礎線性代數庫、部分常用AI框架已經得到初步支持。到2023年4月AMD已經推出ROCm5.6 版本,形成了底層敺動/ 運行時、編程模型、編譯器與測試調試工具、計算庫、部署工具等相對清晰的軟件架搆。從完成度上來看,目前ROCm對比CUDA已經在開發、分析工具、基礎運算庫、深度學習庫與框架、系統軟件方面做到相對完整地支持。

當然,僅支持AI的核心框架與軟件庫對於GPU而言仍然不夠,往往需要全面的軟硬件支持才能觸及大量用戶,在使用中獲得反餽、進行快速疊代,從而搆建生態護城河。ROCm 由於衹支持Linux,對Windows的官方支持不足,其使用命令行形式或腳本形式安裝門檻與CUDA的圖形化操作相比要更高,對於開發人員或算法工程師等專業人士尚可,對於那些並不以AI爲核心的用戶來說,仍有一定的門檻。

但是,ROCm生態已經能夠一定程度上對CUDA進行替代,尤其在覈心的AI領域已經具備較爲完善的支持和可用性,其中很多做法都非常值得借鑑。

自建生態是長久之道

ChatGPT熱潮之下,生成式AI成爲當前最大熱點。這一熱潮極大帶動了GPU行業的高速發展,同時爲國產GPU提供了難得的發展契機。目前硬件性能指標並非國產GPU的最大障礙,部分國產GPU在理論硬件性能上已經可以接近國際主流水平,可在軟件生態層面卻面臨諸多限制。

2023年隨着生成式AI的爆發,特別是在英偉達特供版性能降級之後,國產GPU公司受到更高關注。但是這些產品的應用同樣脫不開生態的支持。中國企業仍需在AI的核心框架、算法庫等方面,加速生態發展,在生態競爭中佔據先機。

首先,自建生態是長久之道。中國核心國產AI算力芯片技術路線中,華爲升騰和寒武紀都選擇了自建生態。這種方式雖然初期會面臨諸多挑戰,但在生態自主上將走得更穩更遠。不過從全球來看AMD、英特爾等並沒有放棄以移植方式兼容CUDA生態,其中的很多做法也值得中國廠商借鑑。