欢迎光临散文网 会员登陆 & 注册

【花师小哲】鉴定网络热门(?)AI(16)——元学习

2023-10-05 10:22 作者:花师小哲-中二  | 我要投稿

好久没有更新专栏了,最近真的忙的要死,主要是开学事情多,差点被滚雪球。嘛,这些事情就不多说了,这次来填一个大坑,即元学习(应该两个月前就说要写了),当然不打算说的太多

1.什么是元学习

如果是稍微了解机器学习的同学应该了解,大部分的神经网络都是需要大量的训练数据的(不然“大数据”也就不会变成一个重要概念和学科了),例如我想让模型能够区分猫狗,那我可能需要至少成百上千张猫狗图片,对于大模型来说,情况就更加恶化,几个TB的数据都是基本需求。

但是人类却不需要这么麻烦,我们在面对新事物的时候,往往只需要少量的样本就可以处理。例如一个研究动物的专家往往只需要几张图片就可以认识一个新物种的特征。

当然,人类也不是从一个空空的大脑开始学习的,我们有之前的经验,换句话说,我们已经学会了“如何学习”。

没错,元学习就是在学习“如何学习”。


再举个例子吧,假设你是一个快递公司,每个城市的快递配送系统都是不一样的。如果是传统的机器学习算法,那么就是每到一个新的城市,就从头构建自己的快递配送系统,非常麻烦,各个城市间的系统没有相互借鉴,也不能相互通用。

但是如果我们先建立几家,然后根据这几家总结经验教训,就可以为新的城市的快递配送系统建设提供帮助,例如我们可能需要一些基础配置模板之类的。

2.元学习与少样本学习

从上面可以看出,元学习与小样本往往是分不开的,毕竟元学习的目的就是“快速适应新任务”,一般来说就是5-shot,就是我给你5个样本你就要适应新任务。看到5-shot,可能有朋友就会想到GPT-3zero-shot、one-shotfew-shot,没错,这几个概念也是借鉴的元学习。

3.元学习方法

目前元学习主要分为三类方法:

(1)基于距离的方法。这部分其实和对比学习非常相似,可以参照:

【花师小哲】当代炼金术(神经网络)前沿(6)——对比学习

Siamese Neural Networks


(2)基于学习的方法。算是最有元学习味道的方法了,因为目的确实就是“学习如何学习”,思路也不复杂,就是先在各个任务上训练,然后找到一个到这些任务都更近的点,或者说就是综合这些任务上训练的结果来当做“经验”。具体还是有点复杂的,不展开。代表方法有MAML和OpenAI的Reptile(众所周知Reptile是“爬行动物”的意思,OpenAI的想法是,元学习是容易被特化来适应新任务的,进化潜力强,就像蜥蜴那样。可惜现在是LLM的羊驼时代了,也就是哺乳动物占优)

MAML


(3)基于幻觉(这个幻觉 不是大模型中的幻觉)的方法。你让我用5张照片适应新任务我当然做不到了,于是我要更多的样本(幻觉)来训练。没错,就是加一个生成器来根据少样本生成大样本。

当然这种方法的一个大问题是,小样本压力并没有消失,而是转移到了生成器的这边

4.元学习与多任务学习

元学习没有成为主流的原因之一就是“多任务学习”的存在。

多任务学习,简单来说就是把一大推任务一股脑的让一个模型学习,一般来说任务越多样,模型泛化效果越好。当然,现在的多任务学习都是大模型+大数据。

其实从效果上来说,两者(元学习中主要指基于学习的方法)确实很相似,有论文这样区别两者,即多任务微调会偏向于数据多的任务,而元学习更一视同仁。



其实还是有些难以理解,但一篇论文(Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of Foundation Models)给出了一个新的思路,即在基于学习的元学习方法中,我们既可以让我们的模型能够更快地适应新的任务,也可以反过来做,让我们的模型能够更慢地适应一些新任务,这就是多任务学习很难做到的事情了。

你说这种做法有什么用?其实用处还是很大的,例如有些人喜欢微调现有的模型来生成有害内容,那我们就可以让这个模型非常难适应有害任务,这样这些人就会发现微调这个现有模型还不如自己从头训练省钱,就能保住现有模型的声誉。

5.结语

可以看到,元学习仍然是很有潜力且很有意思的方法,但是和强化学习很像,处于本身方法发展其实不是特别好也不是特别火,但是总能在各种其他的领域露一手、化腐朽为神奇。


【花师小哲】鉴定网络热门(?)AI(16)——元学习的评论 (共 条)

分享到微博请遵守国家法律