
学了新的,忘了旧的——大模子微调的"糟糕性淡忘"凄迷,终于有了新解。
腾讯混元团队最新提议的HY-WU范式,透彻冲破了静态权重的不绝。它的中枢知悉是:适配新任务,不一定要改写原有参数。
在基座模子握续进化的征程中,怎么均衡"通用性"与"适配性"长久是一项本领挑战。传统的微调(Fine-tuning)或 PEFT(如 LoRA)诚然贬责了模子"学新知识"的问题,但推行上仍是在静态权重空间内的"存量博弈"——每适配一个新任务,都可能对旧有智商形成不可逆的挤压。
3 月 6 日,腾讯混元发布了一篇名为" HY-WU ( Part I ) : An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing "的本领论说。提议了一种簇新的功能性记忆(functional neural memory)范式(weight unleashing),在模子推理时及时生成个性化参数,由此对不同任务 / 分散 / 样本进行个性化合乎。
腾讯混元团队将该范式应用在各绽放源图形剪辑基模上,灵验扩充了基模的功能性记忆,在图形剪辑任务上无边得回了更好的内容通晓、指示战胜和生成质料。与此同期,该范式的数据服从、磨练服从和推理速率也作念到了信得过的实用性与翻新性并重。
接下来让咱们望望本领论说的具体内容。

基模学习的两大挑战:学了新的,忘了旧的;千东谈主千面的个性化问题
在各个界限的基模(Foundation Model)中,无边存在着两个互为犄角的挑战:
"糟糕性淡忘"与握续学习的冲突:
照旧磨练好的基模在面对新数据、新任务时,频繁需要通过微调(Fine-tuning)进行再行学习来得回最好进展。但是,传统的适配模式时常是"障翳式"的,即在分享权重的归拢个参数点上进行反复擦写。
这种作念法极易导致新旧知识的梯度冲突,毁伤模子已有的基础智商,导致"学了新的,忘了旧的"。这点在 functional memory 上尤其超过,关于映射的学习无法被外部存储替代,神经元的改写会导致以往拟合的映射发生变化。
"跷跷板效应"与个性化的量度:
面对不同用户、不同界限的各种化需求,现存模子时常堕入"参数空间的不可能三角"。举例,在大型言语模子(LLM)中,同参数目模子在强化了严实的编程逻辑后,时常在发散性念念维或特定立场的生成上进展出‘廉正奉公’的问题;在图像剪辑中,增强"去噪"智商可能会毁伤模子对"艺术立场"的保留。
这种"千东谈主千面"的个性化需求,在参数空间内时常对应着相互区分甚而冲突的"可行域",强行用一个分享参数去拟合系数需求,最终只可得到各方息争的粗造驱逐。诚然业界尝试通过 MoE(混杂各人模子)海量数据对皆来缓解,但推行上仍是在有限的参数空间内作念‘存量博弈’,难以跳出‘性能跷跷板’的窘境。HY-WU 范式恰是要冲破这种静态权重的不绝,在不失掉基模智商的前提下完成个性化合乎。
现存解法的局限性:静态权重范式的天花板
为了贬责上述问题,当今主流的解法包括:
参数高效微调(PEFT,如 LoRA):虽缩小了磨练老本,但推行上仍属于"静态参数记忆" 。一朝适配完成,推理时系数样本都共用归拢组固定的参数更新。这种"一刀切"的模式在处理高度异构或握续进化的任务时,依然无法脱逃参数冲突和过拟合的窘境。
高下文记忆(RAG / 检索增强):通过外部存储注入配景信息,但这只可转变模子"看到了什么",而无法转变模子"怎么处理信息" 。当任务中枢在于处理章程(如特定的图像变换逻辑)而非缺失事及时,只是依靠加多高下文无法从根柢上转变模子的变换算子(Operator)。
零丁 LoRA 集群:为每个任务磨练零丁的 LoRA 适配器。这诚然幸免了冲突,但会导致存储支拨随任务量爆炸式增长,且不同模块间难以竣事知识搬动,泛化智商受限。
MoE(混杂各人模子):混杂多个各人针对不同 domain 进行路由学习和推理。能改善拟合多种分散的问题,但关于糟糕性淡忘和性能跷跷板的窘境不成从根源上贬责。(哪怕是 GPT-5.3 照旧 Claude 4.6,都在‘编程强化’后堕入了某种进程的‘功能偏科’:编程逻辑的极致栽种,同参数目下伴跟着创造性的流失或知识直观的僵化)

△ 静态记忆,高下文记忆和混元团队提议的功能性记忆的对比 HY-WU 的决策:从"静态参数记忆"到"功能性记忆"
针对这些痛点,混元团队提议了 HY-WU (Weight Unleashing)范式。团队指出,适配问题的中枢不在于优化算法,而在于"记忆接口"(Memory Interface)的遐想。
传统的适配(如 SFT 或 LoRA)推行上是静态参数记忆,它试图将系数新知识压缩进参数空间的一个"单一特征点"中,这在处理异构任务时会导致结构性的脆弱。
HY-WU 则引入了功能性记忆(Functional Memory)。该范式不再追求寻找一个通用的固定参数点,而是学习一个参数生成器。它将适配经过看作是把柄输入条目及时合成特定算子(Operator)的经过。这种"记忆即神经蚁集"的认真化抒发,使得模子概况把柄不同实例在权重空间内进行为态路由(Routing),从而幸免了在分享参数上的反复擦写与冲突。
两种问题,一个对策:Functional Neural Memory 在图像剪辑任务上的的参数生成竣事
混元团队遴聘请"文本领导的图像剪辑"(Text-Guided Image Editing)手脚HY-WU的首个压力测试,因为图像剪辑自然地自大了静态权重的局限性:
主张互斥: "成立老相片"和"相片作念旧"在参数空间里是十足不同的变换标的。要是用归拢个静态适配器(如 LoRA)强行学习,模子会堕入"两端不到岸"的粗造折中。
{jz:field.toptypename/}样本敏锐:相同的"立场化"指示,在猫的图片和山水的图片上,需要彭胀的像素变换不止天渊。
中枢范式:从"存数据"到"存算子映射"
HY-WU 提议了一个草创性的领路:功能性记忆不该是固定的知识点,而应该具有动态的条目映射。
该框架引入了一个基于 Transformer 架构的参数生成器。它不像传统 LoRA 那样去学习一组固定的权重,而是学习怎么生成针对特定实例的算子权重:
1. 及时感知:模子最初索取现时输入图片和剪辑指示的"混杂条目特征"。
2. 即时合成:生成器把柄这些特征,在推理时及时生成出一组针对现时样本的最优 LoRA 参数。这个经过在百亿参数的图像剪辑基模上也仅需几秒。
3. 动态挂载:这一组定制化的参数被立即注入到冻结的基模(Frozen Backbone)中,完成特定的剪辑变换。

△ HY-WU 活水线概览
而和以往大部分参数生成责任不同,HY-WU 经受了端到端的磨练,十足不需要收罗模子 checkpoint 来磨练。

△ HY-WU 模子架构 Neural Network Transformer 的细节
针对 billion-scale 的参数生成,HY-WU 遐想了 Factorized self-attention 来优化筹画,大大缩小了复杂度。其模子结构如上图所示。
功能性记忆:学习"条目更新族"而非"孤独算子"
为了竣事动态路由,混元团队提议了条目更新族(Conditional Family of Updates)的见地。在功能性记忆的视角下,适配的主张不再是"找到一个特定的更新",而是"学习一个从条目到参数更新的映射"。
通过这种花式,HY-WU 招引出一个结构化的参数流形。图像剪辑的分析实考明白注解,生成的参数在权重空间中呈现出精妙的语义结构:功能相似的剪辑操作(如动物形变、立场搬动)会自动蚁集在参数空间的周边区域。
这种权重空间的几何一致性标明,功能性记忆告捷捕捉到了任务背后的变换章程。这使得系统在面对冲突主张时,不错通过路由到更新族的不同区域来化解插手,而非被动进行性能息争。

△ HY-WU 参数空间的 Semantic Map 实用性考量
HY-WU 在实用性方面作念了充分考量。它不需要像传统 Hypernetwork 那样依坏事前收罗的无数微调权重(Checkpoints),尊龙app下载也毋庸在部署时存储无数 LoRA 权重来随时加载。HY-WU 经受端到端磨练和生成,手脚区分挂载的功能性记忆,不仅保证了生成的参数满盈"个性化",更让系数这个词系统具备了极高的磨练服从和工程部署的活泼性和可扩展性。
图像剪辑任务上的优秀进展
接头东谈主员将 HY-WU 应用于HY-Image-3.0-Instruct——这是一个领有 800 亿(80B)参数的原生多模态基座模子(其中激活参数为 13B)。
为了竣事精确的图像剪辑,该团队引入了一个领有81.1 亿参数的 Transformer 参数生成器。该蚁集能为系数线性模块生成 7.2 亿参数的Rank-16 LoRA权重,从而确保模子在处理复杂的剪辑指示时具备极高的活泼性与准确度。
HY-WU 个性化智商展示
在体验测试中,HY-WU 在外交、游戏和告白等场景展现出较好应用后果。

△ 马斯克穿腾讯生肖公仔服。(放大后果更佳)

△ 外交场景下,马斯克与黄仁勋换脸。(放大后果更佳)

△ 游戏场景下,马斯克与三角洲行为中扮装进行换装。(放大后果更佳)

△ 告白场景下,马斯克试穿时装。(放大后果更佳)与其他模子在个性化场景下的对比



△ HY-WU 与 Seedream 4.5,GPT Image 1.5,Nano Banana 2 的对比(放大后果更佳)
在换装,试穿和换脸的个性化场景中,HY-WU 均比其他模子进展出更强的特征一致性,充分展现了其适配智商,为用户提供了更多联想空间。
严苛评测:障翳 60 余种剪辑任务
为了考证 HY-WU 的实战智商,接头团队构建了一个全面的评测,涵盖了单图和多图剪辑两大赛谈。该测试包含 346 组单图和 64 组多图剪辑对,波及 60 个细分剪辑子任务,复旧中英双语指示,障翳了闲居的现实场景。评测对象涵盖了当今市面上最强的一线模子,包括 OpenAI 的GPT-Image-1.5、Google 的Nano Banana Pro以及 Seedream, FLUX.2、Qwen-Image-Edit 等盛名开源神志。
东谈主类评价:并列闭源旗舰
在代表用户简直感知的GSB(Good/Same/Bad)东谈主类评价 中,HY-WU 进展惊艳。数据自大,HY-WU 的进展显赫优于系数主流开源模子。在与顶级闭源模子的对比中,HY-WU 依然保握了极强的竞争上风,其感官质料仅略逊于 Google 的 Nano Banana。

△ GSB 评测驱逐自动化榜单:达到跳跃水平
除了东谈主类评价,HY-WU 在多个泰斗自动化测试集上也得回了亮眼的获利:
1. GEdit-Bench:HY-WU 树立了开源模子的新标杆。在汉文测试(GEdit-Bench-CN)中,它在语义一致性、举座评分和感知质料三大维度上均斩获开源模子第一。在英文测试中,其语义一致性相同位居榜首。值得扎眼的是,HY-WU 在这六项中枢方针上好于闭源模子 Seedream 4.5 和 Nano-Banana-Pro。

2. ImgEdit-Bench:在 9 项细分剪辑任务中,HY-WU 在开源模子中夺得了 5 项第一和 1 项第二。其 4.05 的总分在系数公开模子中名按序二,与闭源霸主 GPT Image 1.5 的差距仅为 0.11 分。

扩展性接头:普适性与"范围法规"
接头团队进一步探讨了 HY-WU 的普适性。实考明白注解,该框架不仅适用于原生多模态模子,在传统的MMDiT架构(如 Qwen-Image-Edit-2509)上相同能带来显赫的性能栽种。
此外,HY-WU 战胜显赫的范围法规(Scaling Law):
模子容量:跟着 Transformer 深度从 2B 加多到 7B,性能握续增强。
权重范围:通过加多 LoRA 的秩(Rank),从 0.12B 扩展至 0.47B 参数,模子进展也呈现出明晰的正相干增长。
新范式的新揣度:迈向"记忆区分"与"功能模块化"的智能架构
HY-WU 本领论说的末尾,混元团队并未停步于图像剪辑,而是描画了一幅以"功能性神经记忆(Functional Neural Memory)"为中枢的昔时 AI 阶梯图 , 传达了他们对大模子架构范式探索前沿的念念考。
R1:检索记忆与功能记忆的协同
存储事实知识的"检索记忆"与存储变换逻辑的"功能性记忆(HY-WU)"从目的和花式上是互补而非替代。究竟什么情况下检索记忆是不够的,而什么情况下功能性记忆组成了互补,是下一步需要实验性考证的攻击问题。混元团队建议在需要事实性和样例时推敲检索记忆,而需要变换章程和经过为止时推敲功能性记忆。功能性记忆提供了 operator 算子需要发生变化时的活泼性。
R2:在线握续学习公约(Online & Continual Protocols)
永恒来看,功能性记忆的愿景在于:让新行为对应于参数更新族(Update Family)上的新区域,而非对分享参数点的不可逆障翳。诚然 Part I 在机制上通过冲突为止接头和对皆消融实验考证了这一决策的可行性,但尚未评估信得过的"在线握续学习"。
混元团队提议,下一步的主张是运勤劳能性记忆手脚算子级责任记忆(Operator-valued Working Memory),界说一种在线公约。通过这种公约,系统在处理公法到达的新主张时,概况将外行段"写入"更新家眷的未开发区域,从而在栽种新任务进展的同期,从根柢上贬责糟糕性淡忘问题。
R3:架构容量的再行分派(Capacity Reallocation)
"记忆优先"遐想的中枢假说在于:范围化(Scaling)不应只是意味着加多骨干蚁集的体量。混元团队果敢预想:将骨干模子与功能性记忆模块邻接范围化,比单纯扩展单体骨干模子更具筹画和数据服从。
这种直观源于结构上的重构:单体范围化必须将长尾和冲突的主张"摊销"到一个单一的参数点上,这势必导致息争与侵略;而功能性记忆分派的是"条目算子容量",使得荒废或冲突的行为无需被强行固化在分享权重中。
团队在文中提议了四个探索维度,主张在于在于定量化分析:当骨干蚁集参数达到饱和时,通过加多功能性记忆容量,怎么进一步栽种模子的可控性、冲突鲁棒性及个性化智商。
R4:跨模态的通用性(Cross-Modality Universality)
HY-WU(Part I)以图像剪辑手脚见地考证,但功能性神经记忆的范式在推行上是通用的。中枢挑战在于:如安在不同的信号空间(如视频、音频、3D 或多模态智能体)中,运用调和的参数流形逻辑来竣事一致的指示战胜。
视频生成中的时分相干性:视频模子频繁在时分耀视力层(Temporal Attention)濒临宏大的均衡压力。通过引入功能性记忆,模子不错为特定的动作序列生成动态的算子偏移,从而在不阻碍基础生成智商的前提下,增强动作的幅度与准确性。
多模态对皆:在视觉问答或交互式任务中,骨干蚁集时常需要处理高度异构的输入。功能性记忆不错把柄输入模态的比例,及时诊疗跨模态会通层的参数权重,竣事更活泼的感知对皆。
R5:万古一致性与身份记忆(Identity & Long-horizon Consistency)
在长序列生成或复杂的 Agent 交互中,保握身份(Identity)的一致性是一个耐久存在的瓶颈。传统的微调花式时常会导致全局权重的偏移,而 R5 揣度通过功能性记忆来有意存储"身份算子"。团队提议如下探索标的:
身份算子化:不错为特定扮装或对象爱戴有意的参数生成逻辑。当模子识别到特定实体时,生成器会即时合成一套专属的参数管理,确保该扮装在跨场景、万古跨度的生成中,其中枢特征(如面部细节、材质纹理)长久保握自由,不随配景或动作的变换而发生漂移。
万古一致性:这种"记忆区分"架构允许模子在处理长视频或多轮交互时,通过动态挂载不同的功能模块来保管逻辑连贯性,竣事信得过的长程受控生成。
R6:硬件感知的部署优化 ( Hardware-Aware Deployment )
将适配压力从"静态权重"转化到"动态参数生成",对推理侧提议了新的系统性挑战。R6 聚焦于怎么让这种新范式在推行分娩环境中具备极高的运行服从。
定制化内核(Custom Kernels):动态生成的参数(如不同实例对应的 LoRA 更新)时常会导致显存拜访模式的碎屑化。因此需要开发硬件感知的优化决策,举例针对动态 LoRA 权重遐想的定制化算子会通本领,以减少参数切换带来的支拨。
高效推理引擎:通过与 FlashInfer 等高性能推理引擎联接,优化生成器与骨干蚁集之间的协调服从。
端侧实用性: R6 的终极主张是缩小参数生成的蔓延与功耗,使得 HY-WU 这种"千东谈主千面"的个性化及时适配,概况在手机、AI PC 等端侧招引上信得过落地。
HY-WU(Part I)只是是一个启动。通过将参数‘开释’(Weight Unleashing),HY-WU 正在赋予 AI 模子一种前所未有的活泼性。混元团队笃信这是更强的智能的必要一环。
一键三连「点赞」「转发」「注意心」
接待在驳倒区留住你的想法!
— 完 —
咱们正在招聘又名眼疾手快、神志 AI 的学术剪辑实习生 � �
感敬爱的小伙伴接待神志 � � 了解笃定

� � 点亮星标 � �
科技前沿进展逐日见

备案号: