AI领域的基石王者,那些还沉迷于CNN,RNN的工程师被警告:放弃战斗吧,向Transformer投降!

在过去的二十年中,自然语言处理研究领域发生了翻天覆地的变化。在这段时间里,自然语 言处理经历了不同的处理范式,并终进入了一个由神奇的Transformer体系结构主导的新时代。 Transformer深度学习架构是通过继承许多方法而产生的,其中包括上下文词嵌入、多头注意力机制、位置编码、并行体系结构、模型压缩、迁移学习、跨语言模型等。

在各种基于神经的自然语言处理方法中, Transformer架构逐渐演变为基于注意力的“编码器-解码器”体系结构,并持续发展到今天。现在,我们在文献中看到了这种体系结构的新的成功变体。目前研究已经发现了只使用 Transformer 架构中编码器部分的出色模型,如 BERT(Bidirectional Encoder Representations from Transformers,Transformers双向编码表示);或者只使用Transformer架构 中解码器部分的出色模型,如 GPT(Generated Pre -trained Transformer,生成式的预训练 Transformer)。

本书涵盖了这些自然语言处理方法。基于 Hugging Face社区的Transformer库,我们能够轻 松地使用Transformer。 本书将循序渐进地提供各种自然语言处理问题的解决方案:从文档摘要到问 题回答系统。我们将看到,基于Transformer, 可以取得的成果。


根据中华人民共和国国家版权局相关法规,本站不提供该PDF电子版书籍
您可以进入交流社群中继续寻找资料或购买正版书籍

Linux交流群

技术交流社群:https://www.linuxprobe.com/club

Linux书籍在线阅读:https://www.linuxprobe.com/chapter-00.html

本文原创地址:https://www.linuxprobe.com/jttclksgjzxj.html编辑:逄增宝,审核员:KSJXAXOAS