我國首個Sora級視頻大模型發(fā)布只需要一段文字指令就能生成一段60秒精致細(xì)膩的視頻——今年2月起,文生視頻大模型Sora曾在全球人工智能業(yè)內(nèi)外引發(fā)震動。4月27日上午,在2024中關(guān)村論壇年會未來人工智能先鋒論壇上,生數(shù)科技聯(lián)合清華大學(xué)發(fā)布中國首個長時長、高一致性、高動態(tài)性視頻大模型——Vidu。Vidu不僅能夠模擬真實物理世界,還擁有豐富想象力,具備多鏡頭生成、時空一致性高等特點,這也是自Sora發(fā)布之后全球率先取得重大突破的視頻大模型,性能全面對標(biāo)國際頂尖水平,并在加速迭代提升中。 據(jù)了解,該模型采用團(tuán)隊原創(chuàng)的Diffusion與Transformer融合的架構(gòu)U-ViT,支持一鍵生成長達(dá)16秒、分辨率高達(dá)1080P的高清視頻內(nèi)容。 根據(jù)現(xiàn)場演示的效果,Vidu能夠模擬真實的物理世界,能夠生成細(xì)節(jié)復(fù)雜、并且符合真實物理規(guī)律的場景,例如合理的光影效果、細(xì)膩的人物表情等。它還具有豐富的想象力,能夠生成真實世界不存在的虛構(gòu)畫面,創(chuàng)造出具有深度和復(fù)雜性的超現(xiàn)實主義內(nèi)容,例如“畫室里的一艘船正在海浪中駛向鏡頭”這樣的場景。 此外,Vidu能夠生成復(fù)雜的動態(tài)鏡頭,不再局限于簡單的推、拉、移等固定鏡頭,而是能夠圍繞統(tǒng)一主體在一段畫面里就實現(xiàn)遠(yuǎn)景、近景、中景、特寫等不同 鏡頭的切換,包括能直接生成長鏡頭、追焦、轉(zhuǎn)場等效果,給視頻注入鏡頭語言。 作為中國自研視頻大模型,Vidu還能理解中國元素,能夠在視頻中生成例如熊貓、龍等特有的中國元素。 值得一提的是,短片中的片段都是從頭到尾連續(xù)生成,沒有明顯的插幀現(xiàn)象,從這種“一鏡到底”的表現(xiàn)能夠推測出,Vidu采用的是“一步到位”的生成方式,與 Sora一樣,從文本到視頻的轉(zhuǎn)換是直接且連續(xù)的,在底層算法實現(xiàn)上是基于單一模型完全端到端生成,不涉及中間的插幀和其他多步驟的處理。 據(jù)了解,Vidu的快速突破源自于團(tuán)隊在貝葉斯機(jī)器學(xué)習(xí)和多模態(tài)大模型的長期積累和多項原創(chuàng)性成果。其核心技術(shù) U-ViT 架構(gòu)由團(tuán)隊于2022年9月提出,早于Sora采用的DiT架構(gòu),是全球首個Diffusion與Transformer融合的架構(gòu),完全由團(tuán)隊自主研發(fā)。 “在Sora發(fā)布后,我們發(fā)現(xiàn)剛好和我們的技術(shù)路線是高度一致的,這也讓我們堅定地進(jìn)一步推進(jìn)了自己的研究!鼻迦A大學(xué)人工智能研究院副院長、生數(shù)科技首席科學(xué)家朱軍說。自今年2月Sora發(fā)布推出后,團(tuán)隊基于對U-ViT 架構(gòu)的深入理解以及長期積累的工程與數(shù)據(jù)經(jīng)驗,在短短兩個月進(jìn)一步突破長視頻表示與處理關(guān)鍵技術(shù),研發(fā)推出Vidu視頻大模型,顯著提升視頻的連貫性與動態(tài)性。 |