NLP入门——基础知识

编程入门 行业动态 更新时间:2024-10-18 01:40:47

NLP入门——<a href=https://www.elefans.com/category/jswz/34/1769428.html style=基础知识"/>

NLP入门——基础知识

生成式AI和AIGC:

生成式AI所生成的内容就是AIGC

AI的Venn图:

注意:

监督学习(训练数据带标签):

经典的监督学习任务包括分类(划分类别)和回归(预测):

无监督学习(不带标签):一般处理聚类任务
强化学习:

强化学习是一种通过主体(Agent)与环境(Environment)交互而进行学习的方法。它既不属于有监督学习,也不属于无监督学习。它的目标是要通过与环境(Environment)交互,根据环境的反馈(Reward),优化自己的策略(Policy),再根据策略行动(Action),以获得更多更好的反馈奖励(Reward)。 

深度学习

引入了神经元和神经网络的概念。

而生成式AI和大语言模型LLM都属于深度学习的一种应用,后者专门用于自然语言处理任务。

LLM中的大:参数多,高达数十亿;用于训练的数据多; 

并非所有的生成式AI都属于大语言模型,如图像的扩散模型,并不输出文本;

大语言模型也不属于生成式AI,比如谷歌的BERT,不擅长长文本生成工作。

大语言模型LLM简介:

模型参数逐渐增加(泛化能力更强):

技术发展里程碑:

2017年6月,谷歌团队发表论文,提出transformer架构:

AI对话产品发展历程:

 GPT全称:(生成式预训练Transformer)

 Transformer提出之前语言模型的主流架构:

RNN(循环神经网络):

 缺点:

无法并行运算,处理效率低;

不擅长处理长文本,难以捕获长距离的语义关系;比如下面这个例子:

LSTM(长短时记忆网络):

缺点:

仍然无法解决并行计算问题;

对于超长序列,仍然不能有很好的效果。

Transformer:

引入自注意力机制:计算得到每一个词和其余所有词的相关性;

位置编码:规定了词在句子中出现的顺序,便于并行训练,提高速度。

有能力学习输入序列中的所有词的相关性和上下文,不会收到短时记忆的影响; 

包括词向量(文本转换为数据)和位置向量(标注在句子中出现的顺序):

 

更多推荐

NLP入门——基础知识

本文发布于:2023-11-16 13:18:58,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1624011.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:基础知识   入门   NLP

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!