6月19日,AI初創(chuàng)公司Midjourney繼推出圖片生成服務(wù)之后,發(fā)表了首個(gè)視頻模型V1,利用圖像生成視頻,費(fèi)用是生成圖片價(jià)格的8倍。
Midjourney表示,公司目標(biāo)是構(gòu)建一個(gè)可實(shí)時(shí)模擬開放世界的模型。想象一個(gè)可實(shí)時(shí)生成視頻的AI系統(tǒng),支持用戶命令它在3D空間移動(dòng),環(huán)境及角色也會(huì)跟著移動(dòng)彼此形成互動(dòng)。為了達(dá)到這個(gè)目標(biāo),Midjourney要建立各種模塊,比如圖片模型,讓圖片動(dòng)作的視頻模型,以及能在空間中移動(dòng)的3D模型,還有能快速完成所有操作的實(shí)時(shí)模型。
明年起,Midjourney將這些元件整合成一個(gè)統(tǒng)一的系統(tǒng),一開始可能比較貴,但很快就會(huì)變得經(jīng)濟(jì)實(shí)惠,讓每個(gè)人都能使用。
V1是Midjourney所推出的第一個(gè)影片模型,它的工作流程基本上是圖片轉(zhuǎn)視頻(Image-to-Video),一開始還是制作或上傳圖像,成為影像的第一幀圖,再按下“Animate”運(yùn)行。使用者可以選擇自動(dòng)或是手動(dòng),前者是由系統(tǒng)決定動(dòng)作,后者允許使用者描述物體的移動(dòng)方式與場(chǎng)景的變化。
使用者還可以選擇低速(low motion)或高速(high motion)運(yùn)動(dòng),前者代表主體的行動(dòng)是緩慢的,后者則會(huì)讓所有物件都動(dòng)起來,不過這樣容易出現(xiàn)一些錯(cuò)誤。
根據(jù)Midjourney的視頻模型說明文件,V1基本會(huì)生成一個(gè)5秒、分辨率為480p的影片,之后可以選擇延長(zhǎng)影片,每次延長(zhǎng)時(shí)間為4秒,最多可延長(zhǎng)4次,代表可建立最長(zhǎng)21秒的影片。
現(xiàn)階段Midjourney并未提供免費(fèi)額度,目前提供4種訂閱方案,都可生成圖或視頻,每個(gè)方案的額度計(jì)算方式為快速GPU時(shí)間(Fast GPU Time),最便宜的是每月10美元的基本方案(Basic Plan),F(xiàn)ast GPU Time額度為每月200分鐘。除了基本方案之外的3種相對(duì)高階方案,都有提供放松GPU時(shí)間(Relax GPU Time),它的生成速度較慢,可能需要排隊(duì),但不消耗額度,還可以無限使用。
Midjourney表示,用戶生成一個(gè)影片的成本約是圖像的8倍,但這是市場(chǎng)上其他視頻生成服務(wù)的1/25。
不過圖片生成也為Midjourney帶來一些不可避免的麻煩,目前迪士尼和環(huán)球影業(yè)都在指控Midjourney利用其動(dòng)畫角色訓(xùn)練模型,允許使用者生成基于相同角色的圖像,還拿這些生成作品來營(yíng)利,嚴(yán)重且故意侵害其著作權(quán)??磥硪院笊傻膱D片版權(quán)問題也要注意了。