国产激情AⅤ无码毛片_色播亚洲视频在线观看_亚洲无码熟妇破处在线观看_亚洲寡妇无码AV在线少妇

搜索

NVIDIA要用上X3D堆疊設(shè)計!下代Feynman GPU將引入LPU

12月29日消息,用上雖然NVIDIA目前在AI訓(xùn)練領(lǐng)域無可匹敵,堆疊但面對日益增長的設(shè)計即時推理需求,其正籌劃一項足以改變行業(yè)格局的下代“秘密武器”。

據(jù)AGF透露,將引NVIDIA計劃在2028年推出的用上Feynman(費曼)架構(gòu)GPU中,整合來自Groq公司的堆疊LPU(語言處理單元),以大幅提升AI推理性能。設(shè)計

Feynman架構(gòu)將接替Rubin架構(gòu),下代采用臺積電最先進(jìn)的將引A16(1.6nm)制程,為了突破半導(dǎo)體物理限制,用上NVIDIA計劃利用臺積電的堆疊SoIC混合鍵合技術(shù),將專為推理加速設(shè)計的設(shè)計LPU單元直接堆疊在GPU之上。

這種設(shè)計類似于AMD的下代3D V-Cache技術(shù),但NVIDIA堆疊的將引不是普通緩存,而是專為推理加速設(shè)計的LPU單元。

設(shè)計的核心邏輯在于解決SRAM的微縮困境,在1.6nm這種極致工藝下,直接在主芯片集成大量SRAM成本極高且占用空間。

通過堆疊技術(shù),NVIDIA可以將運算核心留在主芯片,而將需要大量面積的SRAM獨立成另一層芯片堆疊上去。

臺積電的A16制程一大特色是支持背面供電技術(shù),這項技術(shù)可以騰出芯片正面的空間,專供垂直信號連接,確保堆疊的LPU能以極低功耗進(jìn)行高速數(shù)據(jù)交換。

結(jié)合LPU的“確定性”執(zhí)行邏輯,未來的NVIDIA GPU在處理即時AI響應(yīng)(如語音對話、實時翻譯)時,速度將實現(xiàn)質(zhì)的飛躍。

不過這也存在兩大潛在挑戰(zhàn),分別是散熱問題和CUDA兼容性難題,在運算密度極高的GPU 再加蓋一層芯片,如何避免“熱當(dāng)機”是工程團(tuán)隊的頭號難題。

同時LPU強調(diào)“確定性”執(zhí)行順序,需要精確的內(nèi)存配置,而CUDA生態(tài)則是基于硬件抽象化設(shè)計的,要讓這兩者完美協(xié)同,需要頂級的軟件優(yōu)化。

隨機為您推薦
版權(quán)聲明:本站資源均來自互聯(lián)網(wǎng),如果侵犯了您的權(quán)益請與我們聯(lián)系,我們將在24小時內(nèi)刪除。

Copyright © 2016 Powered by NVIDIA要用上X3D堆疊設(shè)計!下代Feynman GPU將引入LPU,企業(yè)錄(www.falconvsmonkey.com)-公司信息發(fā)布,網(wǎng)上買賣交易門戶   sitemap

回頂部