【花师小哲】当代炼金术(神经网络)前沿(31)——低代码·大模型·复杂系统
真的好久没更新了,之前动态也提到过,四月我真的是忙炸了(上次更新专栏是十几天前,这个系列也半个月了),加上确实没什么太有意思的论文,就没怎么更新。昨晚开了组会后痛苦的四月算是过去了,今天也是小更新一下。
今天看这篇论文:


1.近期大模型的进展
最近大模型的发展还是很多的,毕竟好久没法专栏了,我就列举一下:
(1)CV领域。各路大一统模型开始出现,万恶之源是SAM模型,具体可以看:
【花师小哲】鉴定网络热门(?)AI(8)——计算机视觉也要终结了?
【花师小哲】鉴定网络热门(?)AI(9)——单阶段or两阶段,这是大一统CV分割的问题
在这几篇论文之后,又出现了很多研究,例如视频分割、3D分割等,可以说出的特别快。不过问题也是很多的,除了SAM,很多其实都算不上很大的模型,就是先把坑占一下
(2)大模型和小模型。之前动态也提到了,主要是有位朋友在我一个月之前的专栏下评论。其实一个月能改变的事情还是非常多的,包括我又经历了几十篇论文的历练和导师的毒打,现在已经有新的认识了。现在来看,大模型和小模型之间的协作已经越来越深入了,大模型蒸馏小模型,小模型蒸馏大模型,小模型为大模型提供知识,大模型为小模型提供集成...可以说也是很卷的赛道了
(3)使用工具。大模型使用工具已经不是什么秘密了,毕竟连使用工具能力的评估方案都已经有人做出来了。包括新MOSS模型也是直接集成了工具API的使用。ChatGPT也将迎来新的插件等
(4)复杂系统。前不久出现了AutoGPT,简单来说就是用户给定一个复杂任务,然后由ChatGPT进行任务分解并结合其他模型(可以是自身,也就是大语言模型一个人打多份工)组成一个能循环起来的系统,对于给定的任务不断迭代优化,直到输出一个满意的结果。
OK,接下来我们就从AutoGPT出发来讲本次要讲的这篇论文。

2.AutoGPT存在的问题
AutoGPT虽然在github上有很多star了,但还是存在很多问题。(其实我个人不是很感兴趣,因为实际上并没有太多突破性的表现)
例如花费高且不确定性高。AutoGPT在你输入后就开始自己不断运行迭代了,不过到底什么时候才能给你结果、在这期间要调用多少次API等都是不确定的,加上中途不能修改任务(甲方震怒),导致AutoGPT的成本还是很高的。并且由于难以监控,实际上程序容易陷入死循环,白白浪费调用次数
所以目前来看,比较稳妥的做法就是人机协同。
微软的这篇论文就是这样的。架构如下:

简单来说,对于用户给定的输入,大语言模型(LLM)会先设计好工作系统,这时候用户可以根据自己的需要进行调整,在系统运行期间,用户还是可以多次评估结果、编辑系统等(就很甲方乙方了)

3.低代码
这篇论文是低代码的。
低代码现在也不是什么新鲜的概念了,其实机甲大师S1的开发平台就有低代码版本的:

链接:
所谓低代码,简单来说就是用户可以拖拽一些模型,用类似于搭积木的方式达到类似于编程的目的,例如比较著名的编程猫等。
嘛,其实对我来说还是直接写代码舒服,所以我个人不好评价这种方式是否真的简单易学。
现在的很多低代码平台很多都是更简单的,拼图的框架会更大一些。就像这篇论文一样,每个拼图就是一个模型。
现在还有零代码平台等,这里不多展开

4.评价
从几个例子来看,效果还不错。当然这种模式也存在问题,例如这需要用户有一定的低代码能力,你自己胡乱编辑系统有时候还会起到负效果。
只能说大模型做复杂系统还有很长的路要走