微信扫码
添加专属顾问
我要投稿
Prefix Tuning和Prompt Tuning最大的区别就是向每层的Transformer Block添加可训练的张量,而上一期的Prompt Tuning只是在输入的时候添加。
此外,通过全连接层(具有两层的迷你MLP和介于两者之间的非线性激活函数)来进行桥接。下图左侧为原始的Transformer块,而右侧为添加之后的Prefix Tuning架构。
根据最初的Prefix Tuning的论文,这种技术实现了与全微调的性能,然而只需要训练0.1%的参数(当然当时它对标的是GPT-2模型)。有一种猜测它的表现如此的好,是因为它调整了较少的参数,有助于减少较小训练上面的过渡拟合。下面第一行为全部参数微调训练,第五行为Prefix Tuning。
其实这个家族还有一个叫做P-Tuning的,它分为1.0版本和2.0版本。1.0版本和Prompt Tuning的区别在于额外Token的填充位置,1.0在输入序列的任意位置插入可训练的连续提示向量,使用一个小型的神经网络(比如LSTM)来生成这些提示向量。2,.0在模型的每一层都添加了可训练的提示向量,类似于 Prefix-tuning,它简化了提示向量的生成方式,直接对这些向量进行优化,而不使用 LSTM。
2023年5月份的Adaptive Prefix Tuning提出新的架构,它将额外的prefix加在K和V的输入前面,<一直以来,相信读者都默认QKV的尺寸是相同的,这个时候只在K和V加上,能对得上尺寸么!>这里就留个家庭作业,让读者推敲一下,为什么是可行的~
下面为它的评测指标,分别在在SuperGLUE开发集和NER 测试集上进行。SuperGLUE的指标是准确率,其他是micro-f1分数。其中FT代表最普通的微调,PT-2就是上文中P-Tuning 2.0版本,而APT就是新提出的方法。结果表明这项技术还是可取的~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-04
Agent 越用越聪明?AgentScope Java 在线训练插件来了!
2026-02-03
OpenClaw之后,我们离能规模化落地的Agent还差什么?
2026-01-30
Oxygen 9N-LLM生成式推荐训练框架
2026-01-29
自然·通讯:如何挖掘复杂系统中的三元交互
2026-01-29
微调已死?LoRA革新
2026-01-19
1GB 显存即可部署:腾讯 HY-MT1.5 的模型蒸馏与量化策略解析
2026-01-18
【GitHub高星】AI Research Skills:一键赋予AI“博士级”科研能力,74项硬核技能库开源!
2026-01-10
前Mata GenAI研究员田渊栋的年终总结:关于未来AI的思考
2025-11-21
2025-12-04
2026-01-04
2026-01-02
2025-11-22
2025-11-20
2025-11-19
2026-01-01
2025-12-21
2025-11-23
2026-02-03
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17