chatGPT培训老师AIGC培训讲师叶梓:大模型这么火,我们在使用时应该关注些什么?

编程入门 行业动态 更新时间:2024-10-27 02:17:19

chatGPT培训老师AIGC培训讲师叶梓:大模型这么火,我们在使用时应该关注<a href=https://www.elefans.com/category/jswz/34/1762679.html style=些什么?"/>

chatGPT培训老师AIGC培训讲师叶梓:大模型这么火,我们在使用时应该关注些什么?

以下为叶老师讲义分享:

P25-P29

提示工程的模式

节省计算资源:

在微调过程中,不需要重新训练整个模型,因此可以节省计算资源。

提高特定任务上的性能:

通过微调,模型可以适应特定任务的语言特征和模式,从而提高模型的性能。

保留模型的通用性:

预训练模型具有较高的通用性能,微调可以帮助模型适应特定任务的语言特征和模式,从而提高模型的通用性。

减少数据需求:

预训练模型已经过大量训练,因此在微调过程中可以使用较少的数据。

微调大模型的意义

节省计算资源:

在微调过程中,不需要重新训练整个模型,因此可以节省计算资源。

提高特定任务上的性能:

通过微调,模型可以适应特定任务的语言特征和模式,从而提高模型的性能。

保留模型的通用性:

预训练模型具有较高的通用性能,微调可以帮助模型适应特定任务的语言特征和模式,从而提高模型的通用性。

减少数据需求:

预训练模型已经过大量训练,因此在微调过程中可以使用较少的数据。

微调大模型的方法(Adapter-Tuning)

  • 微调时冻结预训练模型的主体,由Adapter模块学习特定下游任务的知识。
  • Adapter调优的参数量大约为LM参数的3.6%。

Prefix Tuning只是在每个任务前有少量的prefix的参数,

  • 比如翻译任务,可以在每句话的前面加上“翻译:”来引导模型进行翻译功能。
  • Prefix Tuning参数规模约为LM模型整体规模的0.1%。

因为离线的Prompt对于连续的神经网络只是次优解,prompt的词之间是彼此关联的,需要将其关联起来。

于是,P-Tuning将一些伪prompt输入至LSTM中,然后利用LSTM的输出向量来替代原始的prompt token,然后一起输入至预训练语言模型中。

LSTM和随着预训练语言模型一起训练。


chatGPT讲师AIGC讲师叶梓:大模型这么火,我们在使用时应该关注些什么?未完,下一章继续……   

更多推荐

chatGPT培训老师AIGC培训讲师叶梓:大模型这么火,我们在使用时应该关注些什么?

本文发布于:2023-11-15 20:29:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1605863.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:些什么   时应   模型   老师   培训讲师

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!