\u003c/p>\u003cp>美股三大指數(shù)齊跌,納指跌超3%。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/ucms/2025_05/4F219E34A63526893BFF7603ECFC6411DE4821A2_size13_w880_h136.jpg\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 98px;\" data-imagewidth=\"880\" data-imageheight=\"136\" />\u003c/p>\u003cp>不過DeepSeek自己對此卻有不同看法,其表示英偉達(dá)股價暴跌與它無關(guān)。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/ucms/2025_05/3B2D8C53A1C4384F05D6C1E20DA4B9B98FA60EAF_size289_w1080_h732.png\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 433px;\" data-imagewidth=\"1080\" data-imageheight=\"732\" />\u003c/p>\u003cp style=\"text-align: center;\">\u003cstrong>AMD火速站臺\u003c/strong>\u003c/p>\u003cp style=\"text-align: center;\">\u003cstrong>DeepSeek威脅到英偉達(dá)?\u003c/strong>\u003c/p>\u003cp>消息面上,1月27日,DeepSeek應(yīng)用登頂蘋果美國地區(qū)應(yīng)用商店免費APP下載排行榜,在美區(qū)下載榜上超越了ChatGPT。同日,蘋果中國區(qū)應(yīng)用商店免費榜顯示,DeepSeek成為中國區(qū)第一。\u003c/p>\u003cp>此外,1月27日,據(jù)外媒報道,Meta成立了四個專門研究小組來研究量化巨頭幻方量化旗下的國產(chǎn)大模型DeepSeek的工作原理,并基于此來改進(jìn)旗下大模型Llama。 其中兩個小組正在試圖了解幻方量化如何降低訓(xùn)練和運行DeepSeek的成本;第三個研究小組則正在研究幻方量化可能使用了哪些數(shù)據(jù)來訓(xùn)練其模型;第四個小組正在考慮基于DeepSeek模型屬性重構(gòu)Meta模型的新技術(shù)。\u003c/p>\u003cp>據(jù)廣州日報,“DeepSeek爆火的原因主要可以歸結(jié)為兩點:性能和成本?!彼_摩耶云科技集團(tuán)首席經(jīng)濟(jì)學(xué)家鄭磊告訴記者。DeepSeek解釋稱,R1在后訓(xùn)練階段大規(guī)模使用了強(qiáng)化學(xué)習(xí)技術(shù),在僅有極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力。這種卓越的性能不僅吸引了科技界的廣泛關(guān)注,也讓投資界看到了其巨大的商業(yè)潛力。\u003c/p>\u003cp>最受各界關(guān)注的是,DeepSeek R1真正與眾不同之處在于它的成本——或者說成本很低。DeepSeek的R1的預(yù)訓(xùn)練費用只有557.6萬美元,僅是OpenAI GPT-4o模型訓(xùn)練成本的不到十分之一。同時,DeepSeek公布了API的定價,每百萬輸入tokens 1元(緩存命中)/4元(緩存未命中),每百萬輸出tokens 16元。這個收費大約是OpenAI o1運行成本的三十分之一。\u003c/p>\u003cp>OpenAI的成功來自“大力出奇跡”路線,以規(guī)模作為大模型的制勝法寶。但這也讓AI大模型的發(fā)展陷入了一個怪圈:為追求更高的性能,模型體積不斷膨脹,參數(shù)數(shù)量呈現(xiàn)指數(shù)級增長。這種“軍備競賽”型開發(fā)模式,帶來了驚人的能源消耗和訓(xùn)練成本,難以為繼。受大模型訓(xùn)練的高昂成本拖累,OpenAI在2024年的虧損額可能達(dá)到50億美元,業(yè)內(nèi)專家預(yù)計到2026年其虧損將進(jìn)一步攀升至140億美元。\u003c/p>\u003cp>DeepSeek的低成本意味著,大模型對算力投入的需求可能會從訓(xùn)練側(cè)向推理側(cè)傾斜,即未來對推理算力的需求將成為主要驅(qū)動力。而英偉達(dá)等硬件商的傳統(tǒng)優(yōu)勢更多集中在訓(xùn)練側(cè),這可能會對其市場地位和戰(zhàn)略布局產(chǎn)生影響。\u003c/p>\u003cp>DeepSeek-V3在僅使用2048塊H800 GPU的情況下,完成了6710億參數(shù)模型的訓(xùn)練,成本僅為557.6萬美元,遠(yuǎn)低于其他頂級模型的訓(xùn)練成本(如GPT-4的10億美元)。因此,一些人認(rèn)為,DeepSeek可能會顛覆英偉達(dá)在AI硬件領(lǐng)域的主導(dǎo)地位。\u003c/p>\u003cp>而就在1月25日,英偉達(dá)的“老對手”AMD還火速為DeepSeek“站臺”,宣布全新的DeepSeek-V3模型已集成至AMD InstinctGPU上。美國私人投資基金Noah's Arc Capital Management認(rèn)為,DeepSeek-V3模型的突破顯著降低了AI培訓(xùn)成本,使AMD GPU成為比英偉達(dá)更具有成本效益的替代品,增強(qiáng)了AMD的市場地位。\u003c/p>\u003cp>值得注意的是,DeepSeek創(chuàng)始人梁文鋒生于1985年,是浙江大學(xué)信息與通信工程專業(yè)的碩士,在他帶領(lǐng)下的DeepSeek對人才極其看重,不看經(jīng)驗,只看能力。據(jù)多位與DeepSeek有過接觸的行業(yè)人士表述,DeepSeek的優(yōu)勢之處就在于人才密度極高,且多來自于中國本土市場。DeepSeek團(tuán)隊規(guī)模并不大,不到140人,\u003cstrong>工程師和研發(fā)人員幾乎都來自清北等國內(nèi)頂尖高校\u003c/strong>,鮮有“海歸”,而且工作時間都不長,不少還是在讀博士。\u003c/p>\u003cp style=\"text-align: center;\">\u003cstrong>“美國股市最大的威脅”\u003c/strong>\u003c/p>\u003cp style=\"text-align: center;\">\u003cstrong>DeepSeek沖擊“算力競賽”?\u003c/strong>\u003c/p>\u003cp>海外媒體Vital Knowledge,德國世界報知名市場評論員Holger Zschaepitz,都不約而同地把DeepSeek稱之為“美國股市最大的威脅”。\u003c/p>\u003cp>微軟CEO納德拉近日在達(dá)沃斯一檔訪談節(jié)目中表示,中國的Deepseek發(fā)展非常迅速,在推理時間上表現(xiàn)出色,計算效率極高。\u003c/p>\u003cp>美股大V“THE SHORT BEAR”在社交媒體上表示,DeepSeek創(chuàng)造了一個AI巨頭們的痛苦時刻,而投資者必須對此敲響警鐘,“根據(jù)紅杉,美國AI公司每年必須產(chǎn)生約6000億美元收入來支付其AI硬件費用。但現(xiàn)在看來,這種冒險行為變得越來越無利可圖?!盶u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/ucms/2025_05/369348523B2F9337171CB3EEA5FAC3A023B3A34C_size43_w566_h230.png\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 566px; height: 230px;\" data-imagewidth=\"566\" data-imageheight=\"230\" />\u003c/p>\u003cp style=\"text-align: center;\">\u003csup>圖片來源:X\u003c/sup>\u003c/p>\u003cp>海外知名財經(jīng)博客Zerohedge1月24日撰文稱,DeepSeek的出現(xiàn)和其廉價的訓(xùn)練成本,正在對美國此前宣布的5000億美元AI基建計劃形成巨大的打擊。\u003c/p>\u003cp>對此,1月25日,摩根大通分析師Joshua Meyers在標(biāo)題為《通過DeepSeek的敘述思考——風(fēng)險是真實的嗎?》的研報中寫道,雖然目前還不清楚DeepSeek在多大程度上利用了High-Flyer的約50k hopper GPU(與OpenAI據(jù)信正在訓(xùn)練GPT-5的集群規(guī)模類似),但似乎很有可能的是,他們正在大幅降低成本(例如,其V2模型的推理成本據(jù)稱是GPT-4 Turbo的1/7)。DeepSeek顛覆性的主張是“更多的投資并不等于更多的創(chuàng)新”,這一主張開始在美國AI領(lǐng)域引起關(guān)注。\u003c/p>\u003cp>不過,在Joshua Meyers看來,這(DeepSeek的低成本)并不意味著(AI領(lǐng)域)擴(kuò)張的終結(jié),也不意味著不再需要更多的算力,更不意味著投入最多資金的一方不會獲勝(24日扎克伯格還大幅提高了Meta人工智能的資本支出)。相反,這似乎將迫使中國的競爭對手提高效率:“DeepSeek-V2能夠達(dá)到令人難以置信的訓(xùn)練效率,在所需算力只有Meta的Llama 3 70B 1/5的情況下,其性能比其他開源模型更好。此外,DeepSeek-V2訓(xùn)練所需的算力是GPT-4的1/20,而性能卻相差不大?!比绻鸇eepSeek能夠降低推理成本,那么其他公司也將不得不效仿。\u003c/p>\u003cp>國外媒體也紛紛聚焦DeepSeek,并一致認(rèn)為中國大模型的新進(jìn)展為硅谷敲響了警鐘。1月22日,美國媒體Business Insider報道稱,DeepSeek-R1模型秉承開放精神,完全開源,為美國AI玩家?guī)砹寺闊?。開源的先進(jìn)AI可能挑戰(zhàn)那些試圖通過出售技術(shù)賺取巨額利潤的公司。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/ucms/2025_05/E0C9FD6A510BB7818FDD3EE240EBD636F28B02FC_size286_w693_h681.png\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 628px;\" data-imagewidth=\"693\" data-imageheight=\"681\" />\u003c/p>\u003cp>1月24日,美國媒體CNBC推出了長達(dá)40分鐘的節(jié)目,邀請了Perplexity CEO Aravind Srinivas來分析為何DeepSeek會引發(fā)人們對美國在AI領(lǐng)域的全球領(lǐng)先地位是否正在縮小的擔(dān)憂。\u003c/p>\u003cp>英國《金融時報》1月25日報道稱,中國小型AI初創(chuàng)公司DeepSeek震驚硅谷。報道聚焦資源更豐富的美國AI公司能否捍衛(wèi)自己的技術(shù)優(yōu)勢。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/ucms/2025_05/A6500AFFE74E4C523C5A23DCA6F611E650904AD7_size105_w892_h396.png\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 284px;\" data-imagewidth=\"892\" data-imageheight=\"396\" />\u003c/p>\u003cp>報道援引加州大學(xué)伯克利分校AI政策研究員Ritwik Gupta稱,DeepSeek最近發(fā)布的模型表明“AI能力沒有護(hù)城河”。Gupta補(bǔ)充說,中國的系統(tǒng)工程師人才庫比美國大得多,他們懂得如何充分利用計算資源來更便宜地訓(xùn)練和運行模型。\u003c/p>\u003cp>對于“DeepSeek會威脅美國的AI霸權(quán)嗎?”這一問題,DeepSeek自己給出的回答是:當(dāng)前AI競爭已進(jìn)入"馬拉松式"的技術(shù)耐力賽。DeepSeek等中國企業(yè)的崛起,標(biāo)志著全球AI發(fā)展正從單極主導(dǎo)轉(zhuǎn)向多極化格局。但真正改變技術(shù)權(quán)力結(jié)構(gòu),仍需在基礎(chǔ)理論突破、通用人工智能(AGI)等前沿領(lǐng)域取得實質(zhì)性進(jìn)展。未來5-10年,更可能形成"中美雙核,差異發(fā)展"的態(tài)勢,而非簡單的霸權(quán)更替。這場競賽的最終結(jié)果,將取決于持續(xù)創(chuàng)新能力的維持、產(chǎn)學(xué)研協(xié)同效率的提升,以及全球化協(xié)作與自主創(chuàng)新的動態(tài)平衡。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/ucms/2025_05/A75252D9D01FCED0F8E6A82382629C3AED7B5F8D_size213_w1080_h910.png\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 539px;\" data-imagewidth=\"1080\" data-imageheight=\"910\" />\u003c/p>\u003cp>\u003cstrong>(聲明:文章內(nèi)容和數(shù)據(jù)僅供參考,不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險自擔(dān)。)\u003c/strong>\u003c/p>","type":"text"}],"currentPage":0,"pageSize":1},"editorName":"馬軼東","editorCode":"PF171","faceUrl":"http://ishare.ifeng.com/mediaShare/home/373005/media","vestAccountDetail":{},"subscribe":{"type":"vampire","cateSource":"","isShowSign":0,"parentid":"0","parentname":"財經(jīng)","cateid":"373005","catename":"每日經(jīng)濟(jì)新聞","logo":"","description":"","api":"http://api.3g.ifeng.com/api_wemedia_list?cid=373005","show_link":1,"share_url":"https://share.iclient.ifeng.com/share_zmt_home?tag=home&cid=373005","eAccountId":373005,"status":1,"honorName":"","honorImg":"","honorImg_night":"","forbidFollow":1,"forbidJump":1,"fhtId":"76962969","view":1,"sourceFrom":"","declare":"","originalName":"","redirectTab":"article","authorUrl":"https://ishare.ifeng.com/mediaShare/home/373005/media","newsTime":"2025-01-27 22:53:39","lastArticleAddress":"來自北京"},"filterMediaList":[{"name":"鳳凰網(wǎng)財經(jīng)","id":"607286"},{"name":"國際財聞匯","id":"1609082"},{"name":"銀行財眼","id":"1444240"},{"name":"公司研究院","id":"1612328"},{"name":"IPO觀察哨","id":"1601888"},{"name":"風(fēng)暴眼","id":"1601889"},{"name":"出海研究局","id":"1613468"},{"name":"封面","id":"540061"},{"name":"前行者","id":"1580509"},{"name":"凰家反騙局","id":"1596037"},{"name":"康主編","id":"1535116"},{"name":"啟陽路4號","id":"1021158"},{"name":"財經(jīng)連環(huán)話","id":"7518"}]},"keywords":"deepseek,模型,ai,英偉達(dá),成本,算力,meta,股價,華爾街,巨頭","safeLevel":0,"isCloseAlgRec":false,"interact":{"isCloseShare":false,"isCloseLike":false,"isOpenCandle":false,"isOpenpray":false,"isCloseFhhCopyright":false},"hasCopyRight":true,"sourceReason":""};
var adKeys = ["adHead","adBody","topAd","logoAd","topicAd","contentAd","articleBottomAd","infoAd","hardAd","serviceAd","contentBottomAd","commentAd","commentBottomAd","articleAd","videoAd","asideAd1","asideAd2","asideAd3","asideAd4","asideAd5","asideAd6","bottomAd","floatAd1","floatAd2"];
var __apiReport = (Math.random() > 0.99);
var __apiReportMaxCount = 50;
for (var i = 0,len = adKeys.length; i 1月27日,被稱為“東方神秘力量”的DeepSeek,在資本市場掀起了滔天巨浪。 由于DeepSeek通過結(jié)構(gòu)化稀疏注意力、混合專家系統(tǒng)、動態(tài)計算路由等技術(shù),顯著降低了模型訓(xùn)練和推理的算力消耗,由此引發(fā)了市場關(guān)于算力需求下降的擔(dān)憂。 受此影響,美股科技巨頭股價開盤集體大跌,英偉達(dá)跌超10%,市值蒸發(fā)超3500億美元(約合人民幣2.5萬億元)。臺積電跌超8%、博通跌超11%、光刻機(jī)巨頭阿斯麥(AMSL)跌超7%,微軟、甲骨文、Meta等也紛紛下跌。 美股三大指數(shù)齊跌,納指跌超3%。 不過DeepSeek自己對此卻有不同看法,其表示英偉達(dá)股價暴跌與它無關(guān)。 AMD火速站臺 DeepSeek威脅到英偉達(dá)? 消息面上,1月27日,DeepSeek應(yīng)用登頂蘋果美國地區(qū)應(yīng)用商店免費APP下載排行榜,在美區(qū)下載榜上超越了ChatGPT。同日,蘋果中國區(qū)應(yīng)用商店免費榜顯示,DeepSeek成為中國區(qū)第一。 此外,1月27日,據(jù)外媒報道,Meta成立了四個專門研究小組來研究量化巨頭幻方量化旗下的國產(chǎn)大模型DeepSeek的工作原理,并基于此來改進(jìn)旗下大模型Llama。 其中兩個小組正在試圖了解幻方量化如何降低訓(xùn)練和運行DeepSeek的成本;第三個研究小組則正在研究幻方量化可能使用了哪些數(shù)據(jù)來訓(xùn)練其模型;第四個小組正在考慮基于DeepSeek模型屬性重構(gòu)Meta模型的新技術(shù)。 據(jù)廣州日報,“DeepSeek爆火的原因主要可以歸結(jié)為兩點:性能和成本?!彼_摩耶云科技集團(tuán)首席經(jīng)濟(jì)學(xué)家鄭磊告訴記者。DeepSeek解釋稱,R1在后訓(xùn)練階段大規(guī)模使用了強(qiáng)化學(xué)習(xí)技術(shù),在僅有極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力。這種卓越的性能不僅吸引了科技界的廣泛關(guān)注,也讓投資界看到了其巨大的商業(yè)潛力。 最受各界關(guān)注的是,DeepSeek R1真正與眾不同之處在于它的成本——或者說成本很低。DeepSeek的R1的預(yù)訓(xùn)練費用只有557.6萬美元,僅是OpenAI GPT-4o模型訓(xùn)練成本的不到十分之一。同時,DeepSeek公布了API的定價,每百萬輸入tokens 1元(緩存命中)/4元(緩存未命中),每百萬輸出tokens 16元。這個收費大約是OpenAI o1運行成本的三十分之一。 OpenAI的成功來自“大力出奇跡”路線,以規(guī)模作為大模型的制勝法寶。但這也讓AI大模型的發(fā)展陷入了一個怪圈:為追求更高的性能,模型體積不斷膨脹,參數(shù)數(shù)量呈現(xiàn)指數(shù)級增長。這種“軍備競賽”型開發(fā)模式,帶來了驚人的能源消耗和訓(xùn)練成本,難以為繼。受大模型訓(xùn)練的高昂成本拖累,OpenAI在2024年的虧損額可能達(dá)到50億美元,業(yè)內(nèi)專家預(yù)計到2026年其虧損將進(jìn)一步攀升至140億美元。 DeepSeek的低成本意味著,大模型對算力投入的需求可能會從訓(xùn)練側(cè)向推理側(cè)傾斜,即未來對推理算力的需求將成為主要驅(qū)動力。而英偉達(dá)等硬件商的傳統(tǒng)優(yōu)勢更多集中在訓(xùn)練側(cè),這可能會對其市場地位和戰(zhàn)略布局產(chǎn)生影響。 DeepSeek-V3在僅使用2048塊H800 GPU的情況下,完成了6710億參數(shù)模型的訓(xùn)練,成本僅為557.6萬美元,遠(yuǎn)低于其他頂級模型的訓(xùn)練成本(如GPT-4的10億美元)。因此,一些人認(rèn)為,DeepSeek可能會顛覆英偉達(dá)在AI硬件領(lǐng)域的主導(dǎo)地位。 而就在1月25日,英偉達(dá)的“老對手”AMD還火速為DeepSeek“站臺”,宣布全新的DeepSeek-V3模型已集成至AMD InstinctGPU上。美國私人投資基金Noah's Arc Capital Management認(rèn)為,DeepSeek-V3模型的突破顯著降低了AI培訓(xùn)成本,使AMD GPU成為比英偉達(dá)更具有成本效益的替代品,增強(qiáng)了AMD的市場地位。 值得注意的是,DeepSeek創(chuàng)始人梁文鋒生于1985年,是浙江大學(xué)信息與通信工程專業(yè)的碩士,在他帶領(lǐng)下的DeepSeek對人才極其看重,不看經(jīng)驗,只看能力。據(jù)多位與DeepSeek有過接觸的行業(yè)人士表述,DeepSeek的優(yōu)勢之處就在于人才密度極高,且多來自于中國本土市場。DeepSeek團(tuán)隊規(guī)模并不大,不到140人,工程師和研發(fā)人員幾乎都來自清北等國內(nèi)頂尖高校,鮮有“海歸”,而且工作時間都不長,不少還是在讀博士。 “美國股市最大的威脅” DeepSeek沖擊“算力競賽”? 海外媒體Vital Knowledge,德國世界報知名市場評論員Holger Zschaepitz,都不約而同地把DeepSeek稱之為“美國股市最大的威脅”。 微軟CEO納德拉近日在達(dá)沃斯一檔訪談節(jié)目中表示,中國的Deepseek發(fā)展非常迅速,在推理時間上表現(xiàn)出色,計算效率極高。 美股大V“THE SHORT BEAR”在社交媒體上表示,DeepSeek創(chuàng)造了一個AI巨頭們的痛苦時刻,而投資者必須對此敲響警鐘,“根據(jù)紅杉,美國AI公司每年必須產(chǎn)生約6000億美元收入來支付其AI硬件費用。但現(xiàn)在看來,這種冒險行為變得越來越無利可圖?!?/p> 圖片來源:X 海外知名財經(jīng)博客Zerohedge1月24日撰文稱,DeepSeek的出現(xiàn)和其廉價的訓(xùn)練成本,正在對美國此前宣布的5000億美元AI基建計劃形成巨大的打擊。 對此,1月25日,摩根大通分析師Joshua Meyers在標(biāo)題為《通過DeepSeek的敘述思考——風(fēng)險是真實的嗎?》的研報中寫道,雖然目前還不清楚DeepSeek在多大程度上利用了High-Flyer的約50k hopper GPU(與OpenAI據(jù)信正在訓(xùn)練GPT-5的集群規(guī)模類似),但似乎很有可能的是,他們正在大幅降低成本(例如,其V2模型的推理成本據(jù)稱是GPT-4 Turbo的1/7)。DeepSeek顛覆性的主張是“更多的投資并不等于更多的創(chuàng)新”,這一主張開始在美國AI領(lǐng)域引起關(guān)注。 不過,在Joshua Meyers看來,這(DeepSeek的低成本)并不意味著(AI領(lǐng)域)擴(kuò)張的終結(jié),也不意味著不再需要更多的算力,更不意味著投入最多資金的一方不會獲勝(24日扎克伯格還大幅提高了Meta人工智能的資本支出)。相反,這似乎將迫使中國的競爭對手提高效率:“DeepSeek-V2能夠達(dá)到令人難以置信的訓(xùn)練效率,在所需算力只有Meta的Llama 3 70B 1/5的情況下,其性能比其他開源模型更好。此外,DeepSeek-V2訓(xùn)練所需的算力是GPT-4的1/20,而性能卻相差不大?!比绻鸇eepSeek能夠降低推理成本,那么其他公司也將不得不效仿。 國外媒體也紛紛聚焦DeepSeek,并一致認(rèn)為中國大模型的新進(jìn)展為硅谷敲響了警鐘。1月22日,美國媒體Business Insider報道稱,DeepSeek-R1模型秉承開放精神,完全開源,為美國AI玩家?guī)砹寺闊?。開源的先進(jìn)AI可能挑戰(zhàn)那些試圖通過出售技術(shù)賺取巨額利潤的公司。 1月24日,美國媒體CNBC推出了長達(dá)40分鐘的節(jié)目,邀請了Perplexity CEO Aravind Srinivas來分析為何DeepSeek會引發(fā)人們對美國在AI領(lǐng)域的全球領(lǐng)先地位是否正在縮小的擔(dān)憂。 英國《金融時報》1月25日報道稱,中國小型AI初創(chuàng)公司DeepSeek震驚硅谷。報道聚焦資源更豐富的美國AI公司能否捍衛(wèi)自己的技術(shù)優(yōu)勢。 報道援引加州大學(xué)伯克利分校AI政策研究員Ritwik Gupta稱,DeepSeek最近發(fā)布的模型表明“AI能力沒有護(hù)城河”。Gupta補(bǔ)充說,中國的系統(tǒng)工程師人才庫比美國大得多,他們懂得如何充分利用計算資源來更便宜地訓(xùn)練和運行模型。 對于“DeepSeek會威脅美國的AI霸權(quán)嗎?”這一問題,DeepSeek自己給出的回答是:當(dāng)前AI競爭已進(jìn)入"馬拉松式"的技術(shù)耐力賽。DeepSeek等中國企業(yè)的崛起,標(biāo)志著全球AI發(fā)展正從單極主導(dǎo)轉(zhuǎn)向多極化格局。但真正改變技術(shù)權(quán)力結(jié)構(gòu),仍需在基礎(chǔ)理論突破、通用人工智能(AGI)等前沿領(lǐng)域取得實質(zhì)性進(jìn)展。未來5-10年,更可能形成"中美雙核,差異發(fā)展"的態(tài)勢,而非簡單的霸權(quán)更替。這場競賽的最終結(jié)果,將取決于持續(xù)創(chuàng)新能力的維持、產(chǎn)學(xué)研協(xié)同效率的提升,以及全球化協(xié)作與自主創(chuàng)新的動態(tài)平衡。 (聲明:文章內(nèi)容和數(shù)據(jù)僅供參考,不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險自擔(dān)。) “特別聲明:以上作品內(nèi)容(包括在內(nèi)的視頻、圖片或音頻)為鳳凰網(wǎng)旗下自媒體平臺“大風(fēng)號”用戶上傳并發(fā)布,本平臺僅提供信息存儲空間服務(wù)。 Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”“東方神秘力量”震動華爾街,英偉達(dá)股價暴跌,2萬億元市值被摧毀