在BERT和Word2Vec相关章节中,我们已经看到了,如何采用类似完形填空的方式,来利用大量的无标签语料,对模型进行预训练。这里的完形填空就是一种Prompt Learning。
更一般的对于输入的文本\(x\),有函数\(f_{prompt}(x)\),将\(x\)转化成prompt的形式\(x'\),即:
\[x'=f_{prompt}(x)\]该函数通常会进行两步操作:
使用一个模板,模板通常为一段自然语言,并且包含有两个空位置:用于填输入x的位置[X]和用于生成答案文本的位置[Z]。
把输入x填到的位置[X]。
例如,在文本情感分类的任务中,假设输入是:
” I love this movie.”
使用的模板是
” [X] Overall, it was a [Z] movie.”
那么得到的\(x'\)就应该是 “I love this movie. Overall it was a [Z] movie.”
在实际的研究中,prompts应该有空位置来填充答案,这个位置一般在句中或者句末。如果在句中,一般称这种prompt为cloze prompt;如果在句末,一般称这种prompt为prefix prompt。[X]和[Z]的位置以及数量都可能对结果造成影响,因此可以根据需要灵活调整。
如何设计合适的[X]和[Z],就是Prompt Learning的主要议题了。
目前学术界一般将NLP任务的发展分为四个阶段即NLP四范式:
第一范式:基于传统机器学习模型的范式,如tf-idf特征+朴素贝叶斯等机器算法;
第二范式:基于深度学习模型的范式,如word2vec特征+LSTM等深度学习算法,相比于第一范式,模型准确有所提高,特征工程的工作也有所减少;
第三范式:基于预训练模型+finetuning的范式,如BERT+finetuning的NLP任务,相比于第二范式,模型准确度显著提高,但是模型也随之变得更大,但小数据集就可训练出好模型;
第四范式:基于预训练模型+Prompt+预测的范式,如BERT+Prompt的范式相比于第三范式,模型训练所需的训练数据显著减少。
不管是ChatGPT还是Stable Diffusion,对普通用户都像是黑箱,你在对话或者提供命令之前,并不能完全预知其结果。
大家在使用同样的基础模型,为什么有人能画出“赛博 Coser”,有人却只能画出“克苏鲁古神”?
prompt和instruction这俩词在LLM领域偶尔会容易被混为一谈,实际上二者虽然形式相近,都是用来解锁模型的能力,但本质思路却是截然相反的。
prompt是让人来适应模型,给模型以提示。
instruction是让模型听人指令,给模型以指令。
由于目前对LLM的认识不足、研究不深,很大程度上需要依靠prompt工程来探索LLM的能力。早期的时候,prompt-tuning火了一阵儿,一度被誉为第四范式,但最近慢慢好像不这样提了,或者说提法慢慢变成了instruction-tuning。原因可能主要就在于思路上的转变,让人工来构建prompt去适应模型属于是个经验活儿、运气活儿,费力不一定讨好,不如反过来,直接从用户数据收集用户指令。
https://www.zhihu.com/question/585294957
ChatGPT爆火带动全新职业提示工程师,提示工程有多重要?未来该职业走向如何?
https://zhuanlan.zhihu.com/p/608495853
ChatGPT火爆,最全prompt工程指南登GitHub热榜
https://zhuanlan.zhihu.com/p/663182483
快速入门Prompt
in-context learning是一种特殊的训练模式,通过设计启发式的模板,可以在无需更新模型参数的情况下,获得答案。但是只有超大模型才具有这种启发/涌现能力(emergent abilities),小模型就算了吧。
论文:
《Language Models are Few-Shot Learners》
https://zhuanlan.zhihu.com/p/597036814
如何优化大模型的In-Context Learning效果?
参考:
https://mp.weixin.qq.com/s/dkNH4BLOH36B5h_UCcRLnA
NLP新宠——浅谈Prompt的前世今生
https://www.zhihu.com/question/504324484
Prompt Tuning相比于Fine Tuning在哪些场景下表现更好?
https://mp.weixin.qq.com/s/2eA4PBd-wr9tVyyuzJ66Bw
Fine-tune之后的NLP新范式:Prompt越来越火,CMU华人博士后出了篇综述文章
https://wjn1996.blog.csdn.net/article/details/120607050
Prompt-Tuning——深度解读一种新的微调范式
https://zhuanlan.zhihu.com/p/615277009
总结开源可用的Instruct/Prompt Tuning数据
自监督学习是一种特殊目的的无监督学习。不同于传统的AutoEncoder等方法,仅仅以重构输入为目的,而是希望通过surrogate task学习到和高层语义信息相关联的特征。
https://mp.weixin.qq.com/s/r1uXn2jGsHZcZ8Nk7GnGFA
语义表征的无监督对比学习:一个新理论框架
https://zhuanlan.zhihu.com/p/346686467
对比学习(Contrastive Learning)综述
https://mp.weixin.qq.com/s/SOaA9XNnymLgGgJ5JNSdBg
对比学习(Contrastive Learning)相关进展梳理
https://mp.weixin.qq.com/s/U0pTQkW55evm94iQORwGeA
图解SimCLR框架,用对比学习得到一个好的视觉预训练模型
https://mp.weixin.qq.com/s/1RJ4bbfDC5LiN2PNIxdzew
SimCLR框架的理解和代码实现以及代码讲解
https://mp.weixin.qq.com/s/-Vtl_8nND7WCPLdL5bNlMw
探索孪生神经网络:请停止你的梯度传递
https://zhuanlan.zhihu.com/p/321642265
《探索简单孪生网络表示学习》阅读笔记
https://mp.weixin.qq.com/s/6qqFAQBaOFuXtaeRSmQgsQ
一文梳理2020年大热的对比学习模型
https://mp.weixin.qq.com/s/SeAZERYdfqDbtqTLnuWfGg
盘点近期大热对比学习模型:MoCo/SimCLR/BYOL/SimSiam
https://mp.weixin.qq.com/s/jHVg-BMRRVNjAf6ZFEoPxQ
自监督学习的SimCLRv2框架
https://mp.weixin.qq.com/s/7iBC_n6EARW3V8bNuKUqQA
Hinton团队力作:SimCLR系列
https://mp.weixin.qq.com/s/sH-G4g0EyQLu2l91Xvdefw
Neighbor2Neighbor:无需干净图像的自监督图像降噪
https://mp.weixin.qq.com/s/xYlCAUIue_z14Or4oyaCCg
对比学习研究进展精要
https://mp.weixin.qq.com/s/VlSoMmAGDblQ2UYhLD96gA
什么是contrastive learning?
https://mp.weixin.qq.com/s/qnG0YLf0yjs4aT9URRMDyw
有监督对比学习的一个简单的例子
https://mp.weixin.qq.com/s/h8loG3enT5U-5F2a2UflJg
对比学习小综述
https://mp.weixin.qq.com/s/v5p9QA3vDl-WTF3-7shp4g
对比学习简述
https://mp.weixin.qq.com/s/CeqoXqHjfa6UTWa8mmo_Ww
Paper和陈丹琦撞车是一种怎样的体验(ConSERT vs. SimCSE)
https://mp.weixin.qq.com/s/C4KaIXO9Lp8tlqhS3b0VCw
美团提出基于对比学习的文本表示模型(ConSERT)
https://mp.weixin.qq.com/s/sDkGAhnFC027XjpUImeatw
自监督、半监督、无监督学习,傻傻分不清楚?最新综述来帮你!
https://mp.weixin.qq.com/s/L4GQF0eE7MjLPrb8UygCww
无监督深度学习全景教程(193页PDF)
https://mp.weixin.qq.com/s/kbqTHIOzAj1aERl4tm-kVA
2017上半年无监督特征学习研究成果汇总
https://mp.weixin.qq.com/s/J50L6hESBROfT8IIAnofQQ
Yan LeCun109页最新报告:图嵌入, 内容理解,自监督学习
https://mp.weixin.qq.com/s/s440gdbUhLP41rLPjfgsmQ
Yann Lecun自监督学习指南(附114页Slides全文下载)
https://mp.weixin.qq.com/s/foP1xSa5G8oNtAv_pI6AqQ
深度神经网络自监督视觉特征学习综述
https://mp.weixin.qq.com/s/sEHA6fb0XIXQWsmJGf3fTA
DeepMind发布自监督学习最新教程,附122页全文资料下载
https://mp.weixin.qq.com/s/-JoB1MJ0ZpkYLlToS7-AOA
牛津大学&DeepMind:自监督学习教程,141页ppt
https://mp.weixin.qq.com/s/HfqH-b8x8SsE6zb8pcF3Og
自监督学习(Self-Supervised Learning) 2018-2020年发展综述
https://mp.weixin.qq.com/s/2Wm6eQodwlc5XkjGKqhwCg
南京大学周志华教授综述论文:弱监督学习
https://mp.weixin.qq.com/s/_3DqXBpZhstVv6BkBR4oag
自监督学习综述
https://mp.weixin.qq.com/s/aCWAU2RXk9fTzfFqOyjqUw
能自主学习的人工突触,为无监督学习开辟新的路径
https://mp.weixin.qq.com/s/9kMz-eNRwC51Fi0-7BfKzA
Active Learning: 一个降低深度学习时间,空间,经济成本的解决方案
https://mp.weixin.qq.com/s/ZvTm9omnIRqPXcLFbZtoeg
深度学习的关键:无监督深度学习简介
https://mp.weixin.qq.com/s/GHjmiB6F2W3Zo8gVllTyyQ
重现“世界模型”实验,无监督方式快速训练
https://mp.weixin.qq.com/s/3_VtdZNKBwNtMEMf2xc7qw
CVPR智慧城市挑战赛:无监督交通异常检测,冠军团队技术分享
https://mp.weixin.qq.com/s/3aAaM1DWsnCWEEbP7dOZEg
伯克利等提出无监督特征学习新方法,代码已开源
https://mp.weixin.qq.com/s/kNTRpDbKQIalzJi_rx0noQ
无标签表示学习,222页ppt,DeepMind
https://mp.weixin.qq.com/s/ZDPPWH570Vc6e1irwP1b1Q
精细识别现实世界图像:李飞飞团队提出半监督适应性模型
https://mp.weixin.qq.com/s/X1Alcl7rVfTtZGZ40iXjXw
Spotlight 论文:非参数化方法实现的极端无监督特征学习
https://mp.weixin.qq.com/s/kxEfoSjCF8n2jxlDfMaNDA
半监督学习在图像分类上的基本工作方式
https://mp.weixin.qq.com/s/uUMPUdG2TI10W5RumPaXkA
DeepMind无监督表示学习重大突破:语音、图像、文本、强化学习全能冠军!
https://mp.weixin.qq.com/s/_VC6PGdCjlhcsndpunIteg
何恺明等人提出新型半监督实例分割方法:学习分割Every Thing
https://mp.weixin.qq.com/s/qaxzSSDuuscwL5tt0QCQ0Q
破解人类识别文字之谜:对图像中的字母进行无监督学习
https://mp.weixin.qq.com/s/VnOfYuHQQf_q92VHVE3mrQ
谷歌新发布的半监督学习算法降低4倍错误率
https://mp.weixin.qq.com/s/rOj_J1zNYf-Vj9tqLG5KOQ
超强半监督学习MixMatch
https://zhuanlan.zhihu.com/p/66389797
虚拟对抗训练(VAT):一种新颖的半监督学习正则化方法
https://mp.weixin.qq.com/s/DAtHXSfCpqCAZ0iVsfWkDA
半监督学习理论及其研究进展概述
https://mp.weixin.qq.com/s/eHzNIO-RSY-uf-K-OwtWfw
集多种半监督学习范式为一体,谷歌新研究提出新型半监督方法MixMatch
https://mp.weixin.qq.com/s/3el7bPAeJrTQGfWW29ewuA
新技术“红”不过十年,半监督学习为什么是个例外?
https://mp.weixin.qq.com/s/alnji5kgTxc34O7k78uGiA
无监督学习中的目标检测
https://mp.weixin.qq.com/s/8FtDhpgc-1j3TSL771N-Ng
无标注数据是鸡肋还是宝藏?阿里工程师这样用它
https://mp.weixin.qq.com/s/LdfLd2cZCdpvNYLKHUNwuA
简述无监督图像分类发展现状
您的打赏,是对我的鼓励
请访问这里提交评论