少样本学习概述及三种经典方法

编程入门 行业动态 更新时间:2024-10-24 20:18:35

少样本学习概述及<a href=https://www.elefans.com/category/jswz/34/1770022.html style=三种经典方法"/>

少样本学习概述及三种经典方法

从迁移学习讲起

Pre-train + Fine-tune

不同领域数据规模不同,模型表现并不理想,但是:

  1. 模型浅层可以学到通用特征(深层才学到更为复杂的分类特征)

  2. 在大规模数据上训练的模型,其底层特征保持较高的通用性

迁移学习的下游任务仍然受限于目标域上的数据量

小样本学习

人如何认识新动物

1. 刚进动物园,里面动物都不认识

 2. 动物园的工作人员发了一些带有动物名称的卡片(Support Set),你对这些陌生的动物有了大概的了解

 3. 当你再次碰到新的动物时(query set),就可以判断出这个动物是不是之前在卡片上看到过的

        人可以基于support set里的一些名称就可以建立起对未知事物的分辨能力,高效且准确。不需要看几十万万张图片才认识新事物。

        对于上述能力的模仿,就是小样本学习:在数据匮乏、标注极少的情况下,学会对样本类别的识别(这个类别是模型在训练的时候没有见过的)

Support Set
支撑集,带标注的数据。不同于训练集,样本量很少。

Query Set
查询集,相似于测试数据(相似但有别)

N-ways K-shots
N代表支撑集中的类别数量,K代表每个类别下的样本数量。
 

少样本学习经典方法

少样本学习经典思路

数据:扩充/合成更多数据

模型:利用先验知识,简化模型避免过拟合

算法:利用先验知识指导算法优化搜索的路径

 

 

基于度量学习的方法(Metric Learning based methods)

        先验知识:相同类别的相似度高,不同类别的相似度低。基于这样的知识,可以将复杂的模型简化为找到一个可以衡量不同样本之间相似度的模型。       

1. 同类样本具有相似度 

2.模型如果可以学习到通用的相似性,就可以用来做分类

基于度量的inference

1.  训练一个特征提取器模型
2.分别获取query 和support的向量
3.基于两者的向量计算相似度,并将相似度最高的 support对应类别赋予给query(部分情况,需满足特定阈值)

孪生网络(两个网络共享参数)


1.同类样本组成正样本对,不同类样本组成负样本对

2.训练模型抽取特征,并计算样本对的距离。

附:相似性一般采用欧式距离余弦相似度,所以本质上模型在学习更好的表征向量

三元组网络 

1.基本思想依然是学习更好的表征向量,利于计算相似度

2.一般采用margin loss

核心思想:同类距离缩短,异类距离增加

原型网络

1.每个类别在向量空间中都有一个原型向量(通过一个向量表示一个类)
2.在few shot场景下,假设原型向量就是support set中的向量均值
3.   query距离哪个类别的原型向量近,它就属于哪个类别

基于数据增强方法

1. Few shot learning的主要挑战在于有标注数据量的大幅减少,导致基于经验风险最小化的范式失效
2.利用GAN、VAE等模型生成更多的有标注数据,训练更鲁棒的分类器

基于参数初始化方法

1.此类方法致力于寻找一个初始化参数,使得模型可以仅基于少量样本,就可以获得不错的效果。

2.MAML (Model-AgnosticMeta Learning)是其中的典型代表。

3. Recap:迁移学习是不是也是一种参数初始化的方法呢?

 总结

1.低资源、少标注的实际挑战,推动少样本学习的发展
2.Pretrain+Finetuning 的方法最为简单有效
 

更多推荐

少样本学习概述及三种经典方法

本文发布于:2024-03-11 17:07:38,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1729459.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:三种   样本   方法   经典

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!