智象未来发布全新自回归图像编辑框架 VAREdit ,0.7 秒完成高保真图像编辑

来源:中国日报网    2025-08-26 15:01
来源: 中国日报网
2025-08-26 15:01 
分享
分享到
分享到微信

近日,智象未来团队正式推出全新自回归图像编辑框架 VAREdit,作为全球首个纯自回归的图像编辑模型,这也是该领域的又一重大突破。该框架不仅能够精准执行用户指令,避免过度修改,还将编辑速度提升至0.7秒级,为实时交互与高效创作开辟新路径。

长期以来,扩散模型在图像编辑中虽能生成高质量画面,但存在局部修改牵动整体结构、编辑不够精准,以及多步迭代效率低等瓶颈。针对这一问题,VAREdit首次将视觉自回归(VAR)架构引入图像编辑任务。它将编辑定义为“下一尺度预测”,逐层生成多尺度残差特征,实现局部精准修改与整体结构保持的统一。同时,团队创新设计了尺度对齐参考(SAR)模块,有效解决尺度匹配难题,进一步提升编辑质量与效率。

在权威基准 EMU-Edit 与 PIE-Bench 测试中,VAREdit在CLIP与GPT等指标全面领先。其中,VAREdit-8.4B在GPT-Balance指标上较ICEdit和UltraEdit分别提升41.5%和30.8%;轻量版VAREdit-2.2B可在0.7秒内完成512×512图像高保真编辑,实现数倍提速。

目前,VAREdit已在 GitHub 和 Hugging Face 平台全面开源。智象未来团队表示,未来将持续探索视频编辑、多模态生成等应用场景,推动AI图像编辑迈入高效、可控、实时的新纪元。

以上内容为推广信息,所涉及内容不代表本网观点,不构成投资建议、消费建议。

中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn