相比前代模型,騰訊混元圖像2.0模型參數(shù)量提升了一個數(shù)量級,得益于超高壓縮倍率的圖像編解碼器以及全新擴散架構(gòu),其生圖速度顯著快于行業(yè)領(lǐng)先模型,在同類商業(yè)產(chǎn)品每張圖推理速度需要5到10秒的情況下,騰訊混元可實現(xiàn)毫秒級響應(yīng),支持用戶可以一邊打字或者一邊說話一邊出圖,改變了傳統(tǒng)“抽卡—等待—抽卡”的方式,帶來交互體驗革新。

除了速度快以外,騰訊混元圖像2.0模型圖像生成質(zhì)量提升明顯,通過強化學(xué)習(xí)等算法以及引入大量人類美學(xué)知識對齊,生成的圖像可有效避免AIGC圖像中的”AI味“ ,真實感強、細節(jié)豐富、可用性高。

在圖像生成領(lǐng)域?qū)iT測試模型復(fù)雜文本指令理解與生成能力的評估基準

GenEval(Geneval Bench)上,騰訊混元圖像2.0模型準確率超過95%,遠超其他同類模型。

在騰訊混元的發(fā)布直播中,官方演示了多個不同風(fēng)格的圖片生成效果,除了速度快以外,生成的圖片在人物特寫、動物特寫、復(fù)古攝影等領(lǐng)域都有很不錯的表現(xiàn),體現(xiàn)出電影級別質(zhì)感畫面水準。

騰訊混元圖像2.0模型還發(fā)布了實時繪畫板功能,基于模型的實時生圖能力,用戶在繪制線稿或調(diào)整參數(shù)時,預(yù)覽區(qū)同步生成上色效果,突破了傳統(tǒng)“繪制-等待-修改”的線性流程,可助力專業(yè)設(shè)計師的創(chuàng)作。

實時繪畫板支持多圖融合,用戶上傳多圖后,可將多個草圖疊加至同一畫布自由創(chuàng)作,經(jīng)過AI 自動協(xié)調(diào)透視與光影,按照提示詞內(nèi)容生成融合圖像,進一步豐富了AI生圖的交互體驗。

發(fā)布會上,騰訊混元也劇透了即將發(fā)布的原生多模態(tài)圖像生成大模型,新模型在多輪圖像生成、實時交互體驗等方面有突出表現(xiàn)。

騰訊混元在圖像、視頻等模態(tài)上持續(xù)投入,于2014年率先推出并開源了業(yè)內(nèi)首個中文原生的DiT架構(gòu)文生圖開源模型以及參數(shù)量達130億的騰訊混元視頻生成大模型?;煸獔D像生成2.0 模型的發(fā)布,是騰訊混元在多模態(tài)領(lǐng)域的又一里程碑事件。

分享到

nina

相關(guān)推薦