https://mp.weixin.qq.com/s/e4dgIdwzDzcLSkdgr1yZpg
LeCun力荐:Facebook推出十亿参数超大容量存储器
https://mp.weixin.qq.com/s/zXXtbuSvyMOkgrWJwB83kg
预训练语言模型的最新探索
https://mp.weixin.qq.com/s/WzGa5XVi2Op4Lz-1uQXfxQ
SpanBERT:提出基于分词的预训练模型,多项任务性能超越现有模型!
https://zhuanlan.zhihu.com/p/76912493
nlp中的预训练语言模型总结(单向模型、BERT系列模型、XLNet)
https://mp.weixin.qq.com/s/pYSs6NhIAB6DuwNnKZhkZQ
Bert改进:如何融入知识
https://mp.weixin.qq.com/s/in5SDWlQg8ts4E8DTmHxMQ
BERT在推荐系统领域可能会有什么作为?
https://mp.weixin.qq.com/s/kJhOrz0VaYc-k-6XJS02ag
8篇论文梳理BERT相关模型进展与反思
https://mp.weixin.qq.com/s/hI9XAiqKaHLq-Z9JkaWA_A
解决自然语言歧义问题,斯坦福教授、IJCAI卓越研究奖得主提出SenseBERT模型
https://mp.weixin.qq.com/s/55B0ToIKDusiPI5farR19w
NLP这两年:15个预训练模型对比分析与剖析
https://mp.weixin.qq.com/s/SPfa17p3QetZXCC01DwmQA
解密BERT
https://zhuanlan.zhihu.com/p/72805778
BERT的演进和应用
https://mp.weixin.qq.com/s/9YuBY0wLLVQ8ZrT9fiNICA
语音版BERT?滴滴提出无监督预训练模型,中文识别性能提升10%以上
https://mp.weixin.qq.com/s/OXkXjPHhaMXsKw2YevV6sw
邱锡鹏:从Transformer到BERT–自然语言处理中的表示学习进展
https://mp.weixin.qq.com/s/dV4RkxZOC9o2BxNi0GljKQ
谷歌最强NLP模型BERT官方中文版来了!多语言模型支持100种语言
https://zhuanlan.zhihu.com/p/49271699
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
https://mp.weixin.qq.com/s/k_33UK1RkMyHn6TSudU6Kg
详解谷歌最强NLP模型BERT
https://mp.weixin.qq.com/s/d2MZQbamdo0EC_MVtf-HZA
BERT详解:开创性自然语言处理框架的全面指南
https://mp.weixin.qq.com/s/pD4it8vQ-aE474uSMQG0YQ
两行代码玩转Google BERT句向量词向量
https://mp.weixin.qq.com/s/osmUZxAAX3x-oTHYJbzemA
谷歌BERT模型fine-tune终极实践教程
https://mp.weixin.qq.com/s/XmeDjHSFI0UsQmKeOgwnyA
小数据福音!BERT在极小数据下带来显著提升的开源实现
https://mp.weixin.qq.com/s/HXYDO5PM8UIoXgEPGe8p-w
图解当前最强语言模型BERT:NLP是如何攻克迁移学习的?
https://mp.weixin.qq.com/s/zz3j9HEuzw5e92MQXxSQsA
遗珠之作?谷歌Quoc Le这篇NLP预训练模型论文值得一看
https://mp.weixin.qq.com/s/IN4YfoZnlBozwEFdhSvLZg
用可视化解构BERT,我们从上亿参数中提取出了6种直观模式
https://mp.weixin.qq.com/s/s1bQFdA6gtoHeeQMJKQ8UQ
Bert时代的创新:Bert应用模式比较及其它
https://mp.weixin.qq.com/s/zqlWx3e4LOJ3_Zy2DEbCjw
从语言模型看Bert的善变与GPT的坚守
https://mp.weixin.qq.com/s/LngE10Hnqe9bgFzpNfUwLQ
NLP中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert
https://mp.weixin.qq.com/s/MgLLPEY3ynJGkuTgnIXndQ
站在BERT肩膀上的NLP新秀们(PART I)
https://mp.weixin.qq.com/s/nIT3GIU0dUIYyGChxsiOWw
Google BERT应用之《红楼梦》对话人物提取
https://mp.weixin.qq.com/s/dcp_ANYijRmicMYX7OpJmA
如何用最强模型BERT做NLP迁移学习?
https://mp.weixin.qq.com/s/DR4SkgOfUT7KYiaXm5NynQ
跨语言版BERT:Facebook提出跨语言预训练模型XLM
https://mp.weixin.qq.com/s/epjjHmlmMFhWtRO_cCUITA
用BERT进行多标签文本分类
https://mp.weixin.qq.com/s/Wk6gvOS_Qnud6ib1esMFXA
加入Transformer-XL,这个PyTorch包能调用各种NLP预训练模型!
https://mp.weixin.qq.com/s/GqqU3Ixht1BzMnQeRYQEqQ
谷歌NLP深度学习模型BERT特征的可解释性表现怎么样?
https://mp.weixin.qq.com/s/2f91Ksj19rk_emoFpEmPfA
从BERT看大规模数据的无监督利用
https://mp.weixin.qq.com/s/hF4EcKqmaTm_gemxX7Kftg
BERT的嵌入层是如何实现的?
https://mp.weixin.qq.com/s/CdjNQKSNuklVUsXe4InSoA
FastBERT:放飞BERT的推理速度
https://zhuanlan.zhihu.com/p/132361501
BERT是如何分词的
https://mp.weixin.qq.com/s/Tld9V1jdmWs06zNxiJNkZg
BART&MASS自然语言生成任务上的进步
https://mp.weixin.qq.com/s/G995ulqe6Ifxml_AJqapAw
BERT在小米NLP业务中的实战探索
https://www.cnblogs.com/gczr/p/12874409.html
Sentence-BERT: 一种能快速计算句子相似度的孪生网络
https://mp.weixin.qq.com/s/0hUNG6tC-hlfyTJtuzwU5w
NLP中的Mask全解
https://mp.weixin.qq.com/s/cyNcVNImoCOmTrsS0QVq4w
用Siamese和Dual BERT来做多源文本分类
https://mp.weixin.qq.com/s/uv74FKtUNtgjIBQZbsX7Qw
你finetune BERT的姿势可能不对哦?
https://mp.weixin.qq.com/s/BvM5zx-3XrsZj8BQ5WEa4A
一文带你了解MultiBERT
https://mp.weixin.qq.com/s/mFRhp9pJRa9yHwqc98FMbg
BERT在美团搜索核心排序的探索和实践
https://mp.weixin.qq.com/s/MPGF3tkNn3PBA_7S-fo9eg
谷歌新模型突破BERT局限:NLP版“芝麻街”新成员Big Bird长这样
https://zhuanlan.zhihu.com/p/165893466
BERT及其变种
https://mp.weixin.qq.com/s/5HZULHPI3-HJypvAMXEOcQ
MT-BERT在文本检索任务中的实践
https://mp.weixin.qq.com/s/0aZdGzcGW5ZA020rhX0qSQ
BERT4Rec:使用Bert进行序列推荐
https://mp.weixin.qq.com/s/fr-THgOeaTspKsv_hXnU2Q
CogLTX:将BERT应用于长文本
https://www.cnblogs.com/zhouxiaosong/p/11397655.html
使用BERT模型生成token级向量
https://mp.weixin.qq.com/s/JLP4-5IR6HPK4SRQoC9FAQ
BERT预训练实操总结
https://mp.weixin.qq.com/s/FuO8zY3XoIF-s6_8aXAusw
BERT相关模型汇总梳理
https://zhuanlan.zhihu.com/p/348373259
史上最细节的自然语言处理NLP/Transformer/BERT/Attention面试问题与答案
https://mp.weixin.qq.com/s/vFdm-UHns7Nhbmdoiu6jWg
谷歌终于开源BERT代码:3亿参数量,机器之心全面解读
https://zhuanlan.zhihu.com/p/58425003
从Word2Vec到Bert,聊聊词向量的前世今生(一)
https://mp.weixin.qq.com/s/SfMIKfF_B4agFCHN_U_mzQ
BAM!利用知识蒸馏和多任务学习构建的通用语言模型
https://mp.weixin.qq.com/s/6G5Mu7-1omGtQ_9Gt9lUBw
基于预训练自然语言生成的文本摘要方法
https://mp.weixin.qq.com/s/yysnPauB22YgprpOi1ZWSQ
深入理解BERT Transformer,不仅仅是注意力机制
https://mp.weixin.qq.com/s/kFABJJ3fBC48-4DXK8PERQ
10大任务超越BERT,微软提出多任务深度神经网络MT-DNN
https://mp.weixin.qq.com/s/jlGfxkT_o9sgFlUuR_x5Tw
微软开源用于学习通用语言嵌入的MT-DNN模型
https://mp.weixin.qq.com/s/D68YzjYvpc2epGWFBP6rIQ
谷歌实习生新算法提速惊人!BERT训练从三天三夜,缩短到一个小时
https://mp.weixin.qq.com/s/iDGofh_ycWJzfqQriPEXGQ
如何用Python和BERT做中文文本二元分类?
https://zhuanlan.zhihu.com/p/91052495
当BERT遇上知识图谱
https://mp.weixin.qq.com/s/wQW-JT-sGMj60OtXwTssyQ
BERT模型推理加速总结
上图是SWA和普通Attention使用的Mask的区别。SWA能显著提高训练和推理的速度,同时性能掉的也不多。
https://zhuanlan.zhihu.com/p/687349083
稀疏注意力计算:Sliding Window Attention
https://mp.weixin.qq.com/s/wrmjMLPuvpLIcF5VQBqZxg
最新“注意力机制Attention”大综述论文,66页pdf
https://mp.weixin.qq.com/s/rrbwItXt-1EaGiqtDEGvog
为节约而生:从标准Attention到稀疏Attention
https://mp.weixin.qq.com/s/MzHmvbwxFCaFjmMkjfjeSg
遍地开花的Attention,你真的懂吗?
https://mp.weixin.qq.com/s/e_LEhLf2Rh-1zkEBmqS4nA
NLP这两年:15个预训练模型对比分析与剖析
https://mp.weixin.qq.com/s/LAInpFPa-3R1rfv6idILnw
注意力机制发展如何了,如何学习它在各类任务中的应用?
https://zhuanlan.zhihu.com/p/40920384
真正的完全图解Seq2Seq Attention模型
https://mp.weixin.qq.com/s/ZSzHOu6uowRSoWrqB7vOaQ
深度学习注意力机制-Attention in Deep learning-附101页PPT
https://mp.weixin.qq.com/s/FlA1YrR0sLQGJoJZnSXpRw
DeepMind:深度学习注意力与记忆机制,附70页ppt
https://mp.weixin.qq.com/s/_mBa-GTdILrvluJtegz8fw
南洋理工大学:注意力神经网络,Attention Neural Networks,78页ppt
https://mp.weixin.qq.com/s/pKxqPB9qIGmE_PslPa6EyA
长文详解Attention的前世今生
https://mp.weixin.qq.com/s/2kFZAmb_WnTNYUXT_jVMqg
Attention注意力机制的前世今生
https://mp.weixin.qq.com/s/eq1iTyKguQm5t6Xoc7KUgw
一文搞懂NLP中的Attention机制
https://zhuanlan.zhihu.com/p/106662375
More About Attention
https://mp.weixin.qq.com/s/MFxQSUMFNRXjdLQwzveO4w
深度学习中的注意力机制
https://mp.weixin.qq.com/s/vkyPwsaxH-SvHqQx09VhVw
深度学习中的注意力机制(二)
https://mp.weixin.qq.com/s/fbAAA7fO2voP_v-NsavQew
深度学习中的注意力机制(三)
https://mp.weixin.qq.com/s/CftkSOmAx0UTtCixdxj6_A
深度学习中的注意力机制(完结篇)
https://mp.weixin.qq.com/s/Qs6tm50YvzHaJv2rh60WMw
撩一发深度文本分类之RNN via Attention
https://mp.weixin.qq.com/s/MMIZGHTKM5FrvNE6ucQRYQ
33页最新《自然语言处理中神经注意力机制综述》论文
https://mp.weixin.qq.com/s/Q0Ft5bWTuiZUIQSTk7X6ZQ
图解神经机器翻译中的注意力机制
https://mp.weixin.qq.com/s/D7GQ8DRzss9ppP6pyAs1qA
从0到1再读注意力机制
https://mp.weixin.qq.com/s/K_VRt0B9-Xw7YJndmb4WZg
Attention!注意力机制模型最新综述
https://mp.weixin.qq.com/s/hzwp5oGspdtDyNBmq8sMsw
HAN:基于双层注意力机制的异质图深度神经网络
https://mp.weixin.qq.com/s/SBrLPZjx2RdBwZpPQQ5DXQ
HAN:异构图注意力网络
https://mp.weixin.qq.com/s/0EDN-ILeL_diZ1G11ikwjw
T5模型:NLP Text-to-Text预训练模型超大规模探索
https://zhuanlan.zhihu.com/p/89719631
T5: Text-to-Text Transfer Transformer阅读笔记
https://mp.weixin.qq.com/s/X1mLXPzJU7k_ANMzvVPxjA
BERT、RoBERTa、DistilBERT与XLNet,我们到底该如何选择?
https://mp.weixin.qq.com/s/GGRORF5EfJ5xzMLwAsJt5w
从词袋到Transfomer,NLP十年突破史
https://zhuanlan.zhihu.com/p/125145283
Rethink深度学习中的Attention机制
https://mp.weixin.qq.com/s/fxEg8UOa3MeJ6qx5SjEHog
NLP领域中各式各样Attention知识系统性的梳理和总结
https://mp.weixin.qq.com/s/_5YaZdYa8bTFiAzHyrMFBg
理解卷积神经网络中的自注意力机制
https://mp.weixin.qq.com/s/y_hIhdJ1EN7D3p2PVaoZwA
阿里北大提出新attention建模框架,一个模型预测多种行为
https://mp.weixin.qq.com/s/Yq3S4WrsQRQC06GvRgGjTQ
打入神经网络思维内部
https://mp.weixin.qq.com/s/MJ1578NdTKbjU-j3Uuo9Ww
基于文档级问答任务的新注意力模型
https://mp.weixin.qq.com/s/_3pA8FZwzegSpyz_cK63BQ
Self-Attention GAN中的self-attention机制
您的打赏,是对我的鼓励