當(dāng)前位置:

OFweek 人工智能網(wǎng)

評(píng)測(cè)

加速近200倍!RTX 5090生成高質(zhì)量視頻只要1.9秒!清華&生數(shù)等重磅開源TurboDiffusion

作者:Jintao Zhang等 解讀:AI生成未來 亮點(diǎn)直擊 提出了一種端到端的視頻生成加速框架,在保持視頻質(zhì)量的同時(shí),將擴(kuò)散模型的生成速度提升了??。 單張 RTX 5090 GPU 上,該框架能

2025-12-22 18:00 評(píng)論

NanobananaPro/GPT-4o/Sora2/國產(chǎn)模型誰最強(qiáng)?ViStoryBench:全能故事可視化基準(zhǔn)首發(fā)!

作者:Cailin Zhuang, Ailin Huang,Yaoqi Hu等 解讀:AI生成未來 亮點(diǎn)直擊 如果把“故事可視化”理解成一次跨媒介的“編碼—傳輸—解碼”:文本劇本(編碼)→ 模型生成圖

2025-12-22 16:22 評(píng)論

大幅超越π0.5和X-VLA!清北最新Motus:理解、生成、控制全能, 海量視頻喂出“最強(qiáng)大腦”

作者:Hongzhe Bi等 解讀:AI生成未來 亮點(diǎn)直擊 統(tǒng)一的基礎(chǔ)模型:Motus,一個(gè)統(tǒng)一的具身基礎(chǔ)模型,首次在一個(gè)生成式框架內(nèi)集成了五種主流范式(世界模型、逆動(dòng)力學(xué)模型、VLAs、視頻生成模型

2025-12-19 15:28 評(píng)論

24FPS實(shí)時(shí)生成!騰訊混元推出WorldPlay:打破“速度與記憶”悖論,720P無限流視頻隨意玩!

作者:Wenqiang Sun等 解讀:AI生成未來 亮點(diǎn)直擊 WorldPlay,一個(gè)針對(duì)通用場(chǎng)景的實(shí)時(shí)、長期一致的世界模型。 雙重動(dòng)作表示:提出了一種結(jié)合離散鍵盤輸入和連續(xù)攝像機(jī)姿態(tài)的雙重動(dòng)作表示

2025-12-18 15:05 評(píng)論

徹底告別VAE!清華x可靈聯(lián)手開源SVG-T2I:生成理解合二為一,性能媲美SD3

作者:Minglei Shi等 解讀:AI生成未來 亮點(diǎn)直擊 首次在視覺特征模型(VFM)特征空間上對(duì)文本到圖像的隱擴(kuò)散模型進(jìn)行了大規(guī)模驗(yàn)證。 開源了SVG-T2I模型的完整訓(xùn)練與推理流程,并提供多個(gè)

2025-12-17 14:00 評(píng)論

年終盤點(diǎn):誰會(huì)成為中國的"Nano Banana"?

?有界UnKnown原創(chuàng) 作者丨山茶 編輯|錢江 回顧2025年,AI行業(yè)最重要的變化不是模型,而是Agent真正進(jìn)入工作流。 11月,Nano Banana一經(jīng)發(fā)布就在創(chuàng)作工具賽道撕出一道缺口。它不

2025-12-17 10:05 評(píng)論

視頻模型降維打擊?浙大&哈佛提出 IF-Edit:無需訓(xùn)練,用“生成視頻”的思路修圖!

作者:Zechuan Zhang等 解讀:AI生成未來 論文標(biāo)題: Are Image-to-Video Models Good Zero-Shot Image Editors? 機(jī)構(gòu): 浙江大學(xué)、哈

2025-12-16 14:56 評(píng)論

鐵釘水上漂、子彈穿蘋果不炸?Nano-Banana等17款SOTA模型顫抖迎物理邏輯推理大考!

作者:Tianyang Han等 解讀:AI生成未來 本文第一作者Tianyang Han是美團(tuán)MeiGen團(tuán)隊(duì)的算法研究科學(xué)家,主要研究方向是圖像生成和多模態(tài)大語言模型。 亮點(diǎn)直擊 PicWorld

2025-12-15 18:08 評(píng)論

NeurIPS 2025 | 硬剛可靈1.5!阿里通義&清華等開源Wan-Move:指哪動(dòng)哪的“神筆馬良”

作者:Ruihang Chu等 解讀:AI生成未來 亮點(diǎn)直擊 Wan-Move,一個(gè)用于圖像到視頻生成中運(yùn)動(dòng)控制的框架。與需要運(yùn)動(dòng)編碼的現(xiàn)有方法不同,它通過編輯條件特征注入運(yùn)動(dòng)引導(dǎo),無需添加新模塊,從

2025-12-15 17:42 評(píng)論

1步頂100步!TwinFlow:無需教師模型,僅單步推理,Qwen-Image-20B生成速度漲100倍!

作者:Zhenglin Cheng等 解讀:AI生成未來 亮點(diǎn)直擊 簡單而有效的一步生成框架。提出了一種一步生成框架,該框架不需要輔助訓(xùn)練模型(GAN 判別器)或凍結(jié)的教師模型(不同的/一致性蒸餾),

2025-12-11 15:37 評(píng)論

原生多模態(tài)統(tǒng)一架構(gòu)比不過單模態(tài)專家模型?華為團(tuán)隊(duì)出品的EMMA “Say No”

作者:Xin He, Longhui Wei等 解讀:AI生成未來 背景與動(dòng)機(jī) 當(dāng)前多模態(tài)大模型已經(jīng)成為大模型領(lǐng)域最為重要的研究熱點(diǎn),尤其是隨著OpenAI的GPT-4O展現(xiàn)出極強(qiáng)的多模交互生成能力,

2025-12-10 17:01 評(píng)論

北航&美團(tuán)等最新EditThinker:給AI修圖裝上“大腦”,F(xiàn)lux、OmniGen2瞬間智商暴漲!

作者:Hongyu Li等 解讀:AI生成未來 圖1。EditThinker 概述。子圖(a)展示了多輪思考編輯流程,該流程迭代批評(píng)、優(yōu)化和重復(fù)編輯指令,子圖(b)報(bào)告了四個(gè)圖像編輯基準(zhǔn)測(cè)試的結(jié)果,展

2025-12-09 15:32 評(píng)論

僅用1張圖1小時(shí),比肩FLUX.1和Qwen,推理狂飆5倍!Glance用“快慢哲學(xué)”顛覆擴(kuò)散模型!

作者:Zhuobai Dong等 解讀:AI生成未來 亮點(diǎn)直擊 極致高效的訓(xùn)練:僅需?1 個(gè)樣本,在?單張 V100 GPU?上不到?1 小時(shí)?即可完成訓(xùn)練。這與需要數(shù)千GPU小時(shí)(如 DMD2 需要

2025-12-05 16:41 評(píng)論

6799元起!影翎Antigravity A1深度評(píng)測(cè):小白交互,專業(yè)影像

帶來了傳統(tǒng)無人機(jī)給不了的快樂。 在今年 7 月份時(shí),雷科技收到影石Insta360 的邀請(qǐng),第一時(shí)間體驗(yàn)了由影石Insta360 和第三方一起孵化的影翎Antigravity 帶來的首款全景無人機(jī)——

2025-12-05 10:46 評(píng)論

港科大等提出音頻驅(qū)動(dòng)多人視頻生成新范式 AnyTalker,解鎖任意數(shù)量角色間的自然互動(dòng)!

作者:Zhizhou Zhong等 解讀:AI生成未來 亮點(diǎn)直擊 可擴(kuò)展的多人驅(qū)動(dòng)結(jié)構(gòu):本文提出了一種可擴(kuò)展的多流處理結(jié)構(gòu) Audio-Face Cross Attention Layer,能夠以循環(huán)

2025-12-04 14:48 評(píng)論

多模態(tài)理解生成“大一統(tǒng)”!Meta&港大等重磅發(fā)布Tuna:統(tǒng)一視覺表征,性能碾壓Show-o2

作者:Zhiheng Liu等 解讀:AI生成未來 亮點(diǎn)直擊 Tuna,一個(gè)采用統(tǒng)一視覺表示的原生統(tǒng)一多模態(tài)模型,在一個(gè)單一框架內(nèi)實(shí)現(xiàn)了圖像/視頻理解、圖像/視頻生成和圖像編輯。 廣泛的實(shí)驗(yàn)表明,Tu

2025-12-03 15:29 評(píng)論

《黑客帝國》雛形已現(xiàn)?騰訊造出“可對(duì)話游戲宇宙”,實(shí)時(shí)生成、任意交互,世界為你改變!

作者:Junshu Tang等 解讀:AI生成未來 Hunyuan-GameCraft-2將生成式游戲世界模型從靜態(tài)游戲場(chǎng)景視頻合成提升到開放式、遵循指令的交互式模擬。 合成交互視頻Pipeline展

2025-12-02 14:38 評(píng)論

給圖像生成配“閱卷老師”!RubricRL拒絕黑盒瞎蒙,用細(xì)粒度量表馴服大模型,指哪改哪!

作者:Xuelu Feng等 解讀:AI生成未來 亮點(diǎn)直擊 提出通用化基于量規(guī)的獎(jiǎng)勵(lì)設(shè)計(jì)方案,可同時(shí)適用于擴(kuò)散模型與自回歸文生圖模型; 構(gòu)建提示詞自適應(yīng)、可分解的監(jiān)督框架,顯著提升模型訓(xùn)練的可解釋性與

2025-12-01 18:08 評(píng)論

圖像生成開源界又出“王炸”!南洋理工&階躍星辰發(fā)布iMontage:解鎖“多對(duì)多”生成新玩法!

作者:Zhoujie Fu等 解讀:AI生成未來 亮點(diǎn)直擊 iMontage統(tǒng)一模型,能夠處理可變數(shù)量的輸入/輸出幀,有效銜接了視頻生成與高動(dòng)態(tài)圖像生成領(lǐng)域。 構(gòu)建任務(wù)無關(guān)的時(shí)序多樣化數(shù)據(jù)pipeli

2025-12-01 17:48 評(píng)論

ICCV`25 | 視頻交互“隨心所欲”!復(fù)旦&通義萬相等開源DreamRelation:讓想象力從此無邊界

作者:Yujie Wei等 解讀:AI生成未來 亮點(diǎn)直擊 首個(gè)關(guān)系導(dǎo)向的視頻定制框架:本工作首次嘗試解決“關(guān)系視頻定制”任務(wù),即基于少量樣本視頻,生成具有特定交互關(guān)系(如握手、擁抱)但主體不同的新視頻

2025-11-28 16:11 評(píng)論
上一頁  1  2  3 4 5 6 7 ... 9   下一頁

資訊訂閱

粵公網(wǎng)安備 44030502002758號(hào)