首页 > 试题广场 >

关于在大型语言模型中使用 Prefix Tuning 所面临

[不定项选择题]

关于在大型语言模型中使用 Prefix Tuning 所面临的挑战,以下哪些说法是正确的?

  • 难以将学习到的前缀迁移到不同规模或架构的模型上

  • 由于参数量有限,前缀可能无法捕获复杂的任务特征

  • Prefix Tuning 不兼容不使用自注意力的 Transformer 模型

  • 前缀的优化过程可能不稳定,对初始化敏感

按解析来说应该选ABD吧
发表于 2025-04-12 22:47:39 回复(0)