欢迎光临散文网 会员登陆 & 注册

自然语言处理之BERT模型算法、架构和案例实战

2023-07-29 20:47 作者:取个名字吧一个就好  | 我要投稿

链接:https://pan.baidu.com/s/1sUslFIkCuM97QJXoCUg0eQ?pwd=v4dn 

提取码:v4dn

第一篇 自然语言处理基础
第1章 自然语言处理
1.1 自然语言处理的起源
1.2 自然语言处理的发展
1.3 自然语言处理的应用领域
1.3.1 机器翻译
1.3.2 智能问答
1.3.3 文本信息检索和提取
1.3.4 情感分析
1.4 自然语言处理领域的难点问题
1.4.1 单词的边界界定
1.4.2 词义的消歧
1.4.3 句法的模糊性
本章小结
思考题
第2章 自然语言处理的预备知识
2.1 数学知识
2.1.1 线性代数
2.1.2 微积分
2.1.3 概率论
2.2 计算机信息处理基础知识
2.2.1 字符的编码和表示
2.2.2 语言和算法
2.2.3 框架模型简介
2.3 基础任务工具包
2.3.1 基础任务工具包简介
2.3.2 Python环境的搭建
2.3.3 10个Python字符串处理技巧
2.4 Python中常用到的自然语言处理库
2.4.1 NITK
2.4.2 TextBlob
2.4.3 Spacy
2.4.4 Gensim
2.4.5 StanfordCoreNLP
2.5 NLP的深度学习框架
2.5.1 深度学习概述
2.5.2 NLP的深度学习:ANN、RNN和LSTM
2.5.3 利用PyTorch实现情感文本分类
本章小结
思考题
第3章 文本的表示技术
……

第二篇 自然语言处理中的深度学习算法
第三篇 实战案例
第四篇 结语和展望

查看全部↓

前言/序言

  为什么要写这本书
  2020年的晚秋,当出版社编辑联络到我,问我有没有兴趣写一本自然语言处理方面的书时,我欣然应允。于是选题接洽,经过深思熟虑之后决定选取BERT这个方向。
  BERT的全称是基于变换器的双向编码器表示技术,它是一种基于深度学习的新型自然语言处理模型。BERT提出了一种新的预训练目标:屏蔽字语言模型(MLM)与从左到右的单向语言模型预训练不同,MLM目标允许表征融合左右两侧的语义,从而预训练一个深度双向Transformer。BERT一经问世,便有了不俗的表现,在机器阅读理解水平测试中,它在各项衡量指标上超越了人类,还在11种不同NLP测试中创出最佳成绩。BERT为NLP带来了里程碑式的改变,也是NLP领域发展过程中一大进展。BERT从诞生到现在,得到了广泛的应用,它在屏蔽词预测、关键词提取、下一句预测等多种自然语言处理任务中均有不俗的表现,因为BERT代表了NLP新技术,具有一定的先进性,所以我选定它来作为本书的主题。
  写这本书的初衷:用简单、通俗、易懂的语言对BERT相关的自然语言处理技术进行描述,从原理、架构、实现等多维度解读BERT模型,并展示由浅到深不同层面的实战案例,通过将理论和实践相结合,使读者能够在对模型充分理解的基础上,运用模型解决实际任务。


自然语言处理之BERT模型算法、架构和案例实战的评论 (共 条)

分享到微博请遵守国家法律