DeepSeek V3.2與國外頂級AI有差距:算力受限 未來會解決
12月2日消息,外頂日前DeepSeek低調(diào)發(fā)布了DeepSeek V3.2正式版以及長思考加強(qiáng)版eepSeek-V3.2-Speciale,解決命名上繼續(xù)小步快跑。差距
但DeepSeek V3.2整體表現(xiàn)不錯,算力受限按照官方的外頂說法,推理類Benchmark測試中達(dá)到GPT-5水平,解決僅略低于Gemini-3.0-Pro,差距并拿到了IMO國際數(shù)學(xué)奧賽、算力受限中國數(shù)學(xué)奧賽CMO等多個數(shù)學(xué)比賽的外頂金牌水平。
這兩天從各路大V及網(wǎng)友的解決評測體驗來看,DeepSeek V3.2比之前的差距版本是有很大進(jìn)步的,考慮到價格的算力受限關(guān)系,其綜合表現(xiàn)還是外頂讓人驚喜的。
但也要承認(rèn)一點,解決DeepSeek V3.2這次沒有達(dá)到當(dāng)前頂級AI的差距水平,編程領(lǐng)域比肩Claude、Gemini-3.0-Pro不太行。
對于當(dāng)前的情況,DeepSeek官方也是很清楚的,在這次的論文中他們承認(rèn)了與Gemini-3.0-Pro等閉源大模型有一些局限性,首先是總訓(xùn)練FLOPS較少,導(dǎo)致世界知識廣度不如領(lǐng)先的專有模型,預(yù)計在未來的迭代中通過擴(kuò)展訓(xùn)練來解決這一差距。
其他因素還有標(biāo)記效率要比Gemini-3.0-Pro差,以及解決復(fù)雜任務(wù)能力不如前沿模型,這些都需要改進(jìn)基礎(chǔ)模型及訓(xùn)練后處理方案。
從DeepSeek的表態(tài)靠近,V 3.2存在的問題說到底還是3.X版的基座大模型已經(jīng)有點落后了,要想達(dá)到當(dāng)前的頂級AI水平,需要投入更高的算力和數(shù)據(jù)。
對于這一點,相信DeepSeek是有準(zhǔn)備的,V4及不一定存在的R2今年一直沒發(fā)布,但DeepSeek絕對會在準(zhǔn)備更強(qiáng)大的算力和數(shù)據(jù)資源了。
按照之前的慣例,估計今年春節(jié)前后DeepSeek V4/R2就要陸續(xù)發(fā)布了。