DeepSeek,“卷”瘋了!OpenAI、阿里雲官宣!上新、降價、免費試用!

DeepSeek這條“鮎魚”,讓全球大模型競賽進一步提速。

北京時間2月1日凌晨,OpenAI發佈全新推理模型o3-mini。據介紹,o3-mini是其推理模型系列中最新、最具成本效益的模型,包含low、medium和high三個版本,已經上線了ChatGPT和API。值得注意的是,ChatGPT免費用戶可以通過在消息編輯器中選擇“推理(Reason)”或重新生成響應來試用o3-mini模型,這也是OpenAI首次向免費用戶提供推理模型。

此前,DeepSeek因推出了性能良好、開源且免費的V3和R1模型而受到廣泛關注,也由於低廉的模型訓練成本而走出了一條獨特的道路,通過開源重構了全球的AI競爭格局,使低成本創新成爲顛覆行業的創新路徑。過去一週多的時間裡,國內外大模型廠商從“緊急上線”新模型,到降價、免費,種種措施表明,在DeepSeek的刺激下,AI大模型行業的競爭正變得越來越激烈。

OpenAI緊急上線新模型

據介紹,o3-mini是其最新、最具成本效益的模型,複雜推理和對話能力顯著提升,在科學、數學、編程等領域的性能超越了o1模型,並保持了低成本及低延遲的特點。

具體來看,o3-mini在GPQADiamond(理化生)、AIME2022-2024(數學)、CodeforcesELO(編程)基準測試中,得分分別爲0.77、0.80、2036,比肩或是超過了o1推理模型。在中等(medium)推理能力下,o3-mini在額外的數學和事實性評估中表現更爲出色。同時,o3-mini的平均響應速度爲7.7秒,比o1-mini的10.16秒平均響應速度快24%。

值得注意的是,DeepSeek的網頁及移動應用端均實現了模型與網絡的連接,支持聯網搜索功能,而o1模型則尚未實現聯網搜索功能。另外,與其他模型直接提供問題答案不同,DeepSeek的R1推理模型可以向用戶展示出具體的思考過程。不少用戶表示,在與DeepSeek互動的過程中,欣賞其思考的過程甚至比最終得到的答案更具有啓發性。

或是受DeepSeek的影響,o3-mini可與聯網搜索功能搭配使用,並展示完整的思考過程。奧特曼在其社交平臺上介紹o3-mini時候不僅表示這是一款“聰明、反應快速的模型”,還專門強調,“它能夠搜索網頁,還可以展示搜索過程”。

使用權限方面,ChatGPT首次向所有用戶免費提供推理模型,用戶可以通過在消息編輯器中選擇“推理(Reason)”或重新生成響應來試用o3-mini模型。ChatGPTPro用戶可以無限訪問,Plus和Team用戶的速率限制從原來o1-mini的每天50條消息增加3倍到o3-mini的每天150條消息。

在定價方面,o3-mini每百萬token的輸入(緩存未命中)/輸出價格爲1.10美元/4.40美元,比完整版o1便宜93%。不過,o3-mini的性價比或依然比不上DeepSeek。作爲對比,DeepSeek的API提供的R1模型,每百萬token的輸入(緩存未命中)/輸出價格僅爲0.55美元/2.19美元。

美國知名播客主持人LexFridman在其個人社交平臺上表示,雖然OpenAI的o3-mini表現不錯,但是DeepSeek的R1以更低成本實現了同等的性能,並開創了開放模型透明度的先河。

DeepSeek讓大模型“卷”起來了

記者注意到,早在幾天以前,奧特曼在迴應DeepSeek的爆火時就指出,DeepSeekR1讓人印象深刻,尤其考慮到成本方面,“但我們無疑將帶來更好的模型,我們很快會發布新的模型”。業內人士分析稱,o3-mini模型的緊急上線,或表明OpenAI已感受到了來自競爭對手的壓力,需要加快發佈性能更強的模型證明自身的領先優勢。

值得注意的是,在o3-mini推出後,OpenAI首席執行官山姆·奧特曼與一衆高管在reddit上回答網友的問題。奧特曼承認,中國競爭對手DeepSeek的崛起削弱了OpenAI的技術領先優勢。“DeepSeek是個非常優秀的模型。我們將繼續推出更優質的模型,但將無法維持往年的領先優勢”。

對於“更優質的模型”,奧特曼透露,下一代推理模型o3將在“數週至月內”發佈。但被業界期待了許久的旗艦模型GPT-5,則尚無發佈的時間表。

除此以外,奧特曼罕見地對開源與閉源的問題進行了迴應。他指出,OpenAI過去在開源方面站在“歷史錯誤的一邊”,公司曾經開源部分模型,但主要採用閉源的開發模式,未來將重新制定開源戰略。

OpenAI首席產品官KevinWell還表示,公司正考慮將非前沿的舊模型如GPT-2、GPT-3等開源。

在OpenAI發佈新模型的同時,國產大模型的降價浪潮仍在持續。1月30日,阿里雲發佈百鍊qwen-max系列模型調整通知,qwen-max、qwen-max-2025-01-25、qwen-max-latest三款模型輸入輸出價格調整,qwen-maxbatch和cache同步降價。

而就在1月29日凌晨,阿里雲才正式發佈升級了通義千問旗艦版模型Qwen2.5-Max,據介紹,Qwen2.5-Max模型是阿里雲通義團隊對MoE模型的最新探索成果,預訓練數據超過20萬億tokens,展現出極強勁的綜合性能,在多項公開主流模型評測基準上錄得高分,全面超越了包括DeepSeek-V3在內在目前全球領先的開源MoE模型以及最大的開源稠密模型。

天風國際分析師郭明錤認爲,目前從生成式AI趨勢中獲利的方式,主要還是“賣鏟子”和降低成本,而不是創造新業務或提升既有業務的附加值。而DeepSeek-R1的定價策略,會帶動生成式AI的整體使用成本下降,這有助於增加AI算力需求,並且可以降低投資人對AI投資能否獲利的疑慮。不過,使用量的提升程度能否抵消價格降低帶來的影響仍然有待觀察。同時,郭明錤表示,只有大量部署者纔會遇到Scalinglaw邊際效益的放緩,因此當邊際效益再度加速時,英偉達將依然是贏家。

責編:李丹

校對:廖勝超

版權聲明

" Type="normal"@@-->

證券時報各平臺所有原創內容,未經書面授權,任何單位及個人不得轉載。我社保留追究相關行爲主體法律責任的權利。

轉載與合作可聯繫證券時報小助理,微信ID:SecuritiesTimes" Type="normal"@@-->

END

" Type="normal"@@-->