zl程序教程

您现在的位置是:首页 >  其它

当前栏目

Prompt Learning

learning prompt
2023-09-14 09:14:41 时间

回答一:

结论很简单:

  1. 离散的Prompt Tuning(Prompt Design)基本不能达到fine-tuning的效果;Soft Prompt Tuning在模型增大时可以达到接近fine-tuning的效果,并且有进一步超越fine-tuning的趋势。
  2. 另外,Prompt Tuning往往比模型调优提供更强的零样本性能,尤其是在像 TextbookQA 这样具有大域变化的数据集上。
  3. 如果比的是Parameter Efficiency性能,那几乎没有什么能与Prompt Tuning比,我们也知道Prompt Design甚至不需要任何参数

 回答二:

当你没有数据的时候prompt tuning更好。

在业界很适合用来做一些proof of concept的事,也适合处理一些long tail 只有biased数据或者缺数据的情况。试想你有一个idea,吭哧吭哧做一两个月opportunity analysis, data engineering。最后figure out出来work还好,不work就真的挺浪费时间的。要是用prompt搞一点proof of concept的东西很快就能知道是不是work,值不值得继续invest。

【NLP】Prompt Learning 超强入门教程 - 知乎

Prompt Learning|深入浅出提示学习要旨及常用方法 - 知乎

Prompt Tuning 相比于 Fine Tuning 在哪些场景下表现更好? - 知乎