拍我AI上線V5.5AI視頻大模型,支持“導(dǎo)演級”音畫同步一鍵生成
作者:綜合 來源:綜合 瀏覽: 【大 中 小】 發(fā)布時(shí)間:2025-12-05 08:22:30 評論數(shù):

新浪科技訊 12月2日下午消息,導(dǎo)演級愛詩科技發(fā)布PixVerse V5.5AI視頻大模型——國內(nèi)版為拍我AI V5.5,上視頻生成宣布繼Sora2發(fā)布后率先實(shí)現(xiàn)“分鏡+音頻”一鍵直出更新升級,線V型支能讓創(chuàng)作者能夠在幾秒鐘內(nèi)生成完整的大模視頻故事,而無需再從素材中拼接。持音
與以往只能產(chǎn)出單鏡頭或零散畫面的畫同大模型不同,V5.5 可以生成具備敘事結(jié)構(gòu)的步鍵短片,甚至接近“成片”質(zhì)量的導(dǎo)演級視頻。據(jù)悉,上視頻生成V5.5的線V型支核心進(jìn)步來自于底層模型的全面升級。此次更新首次支持音頻(Audio)與多鏡頭(Multi-shot)同步生成,大模并強(qiáng)化了多角色音畫同步能力。持音AI能夠根據(jù)用戶輸入的畫同提示詞,自動(dòng)理解并生成完整的步鍵故事段落,而非僅僅提供單一鏡頭的導(dǎo)演級素材。用戶只需要輸入一個(gè)簡短的提示,AI就能完成鏡頭推進(jìn)、景別切換、人物對白、環(huán)境聲和背景音樂的生成,直接呈現(xiàn)一個(gè)可被使用的敘事片段。
在拍我AI(PixVerse)中,用戶可以在V5.5大模型多鏡頭和音畫同步打開狀態(tài)下,生成5秒、8秒、10秒的視頻。用戶現(xiàn)在可以在提示詞(Prompt)里直接控制“音效、臺詞、音色、音樂、鏡頭”,AI能自動(dòng)理解提示詞中的敘事意圖,自動(dòng)設(shè)計(jì)推拉、搖移、切換、景別變化等鏡頭語言。AI的運(yùn)鏡節(jié)奏更自然,緊貼真實(shí)制作邏輯,帶給用戶“成為導(dǎo)演”般的創(chuàng)作體驗(yàn)。
從體驗(yàn)角度來看,V5.5 進(jìn)一步縮短了創(chuàng)作工作流中的時(shí)間差。生成速度大幅提升,鏡頭語言更加豐富,控制方式更加直觀,使得C端用戶和創(chuàng)作者都能以更低的門檻,迅速將抽象的靈感變成可觀看的成品視頻。
海量資訊、精準(zhǔn)解讀,盡在新浪財(cái)經(jīng)APP 責(zé)任編輯:何俊熹
