
DeepSeek R1模型近日完成了一次小版本升級(jí)。該公司稱(chēng),此次升級(jí)主要強(qiáng)化了語(yǔ)義理解的精準(zhǔn)性、復(fù)雜邏輯推理能力以及長(zhǎng)文本處理的穩(wěn)定性。
盡管DeepSeek未公布更多細(xì)節(jié),但網(wǎng)友測(cè)評(píng)后表示,模型的理解能力顯著提升,例如在激活參數(shù)部分可以制作交互動(dòng)畫(huà)展示,關(guān)鍵信息邏輯也更加清晰。此外,R1的編程能力也大幅提升,有網(wǎng)友稱(chēng)其可以一次性生成1000多行無(wú)錯(cuò)誤代碼,甚至能與“編程新王”Claude 4一較高下。
此次升級(jí)是DeepSeek自今年3月發(fā)布DeepSeek-V3-0324模型后的首次更新。V3模型在數(shù)學(xué)、代碼類(lèi)評(píng)測(cè)集上超越了GPT-4.5和Claude-3.7-Sonnet,性?xún)r(jià)比極高,輸入價(jià)格僅為Claude-3.7-Sonnet的1/11、GPT-4.5的1/277,且開(kāi)源可免費(fèi)用于商業(yè)用途。
Hugging Face的研究員Adina Yakefu表示,升級(jí)后的DeepSeek R1在減少幻覺(jué)(即提供錯(cuò)誤信息)方面也有重大改進(jìn),顯示出其不僅在追趕,更是在與頂級(jí)模型競(jìng)爭(zhēng)。
DeepSeek的R1模型自1月發(fā)布以來(lái),曾因多項(xiàng)指標(biāo)優(yōu)于西方競(jìng)爭(zhēng)對(duì)手而引發(fā)全球關(guān)注,并導(dǎo)致科技股暴跌。然而,自V3模型發(fā)布后,DeepSeek的熱度有所下降,市場(chǎng)更關(guān)注其R2模型的發(fā)布。此前有消息稱(chēng),R2將采用混合專(zhuān)家模型(MoE),參數(shù)量預(yù)計(jì)達(dá)1.2萬(wàn)億,單位推理成本較GPT-4大幅降低。但截至目前,DeepSeek仍未正式確認(rèn)R2的發(fā)布時(shí)間。
R1推理模型的最新版本R1-0528再次引發(fā)了全球媒體的廣泛關(guān)注。
路透社報(bào)道稱(chēng),此次發(fā)布加劇了與美國(guó)競(jìng)爭(zhēng)對(duì)手如OpenAI的競(jìng)爭(zhēng)。在由加州大學(xué)伯克利分校、麻省理工學(xué)院和康奈爾大學(xué)研究人員開(kāi)發(fā)的LiveCodeBench排行榜中,DeepSeek的R1-0528在代碼生成方面僅略低于OpenAI的o4 mini和o3推理模型,但超過(guò)了xAI的Grok 3 mini和阿里巴巴的Qwen 3。
CNBC指出,DeepSeek此次升級(jí)模型發(fā)布低調(diào),但其推理能力使其能夠執(zhí)行更復(fù)雜的任務(wù)?!度A爾街日?qǐng)?bào)》中文版則提到,DeepSeek的低成本、高性能R1模型自年初以來(lái)吸引了全球目光,推動(dòng)了中國(guó)科技股的上漲,也顯示出市場(chǎng)對(duì)中國(guó)AI能力的樂(lè)觀預(yù)期。






.png)





















