关于在大型语言模型中使用 Prefix Tuning 所面临的挑战,以下哪些说法是正确的?
难以将学习到的前缀迁移到不同规模或架构的模型上
由于参数量有限,前缀可能无法捕获复杂的任务特征
Prefix Tuning 不兼容不使用自注意力的 Transformer 模型
前缀的优化过程可能不稳定,对初始化敏感
这道题你会答吗?花几分钟告诉大家答案吧!
扫描二维码,关注牛客网
下载牛客APP,随时随地刷题