直播回顾 | 大语言模型发展与现状

2023年6月29日18:30,由东北大学自然语言处理实验室主办,小牛翻译协办的生成式大语言模型技术分享系列直播第五期顺利举行。本次报告由来自东北大学自然语言处理实验室的刘新宇博士,为大家带来了《大语言模型发展与现状》分享。

在前几期报告中了解Transformer、预训练模型等的相关基础知识过后,从本期开始将正式进入生成式大语言模型关键技术的分享,本次报告由刘新宇博士介绍“大语言模型发展与现状”相关内容,适用于初识大语言模型的新手小白。刘新宇博士从语言模型到大语言模型的发展历程出发,分别介绍了人工智能现状、AGI、自然语言处理、大语言模型相比语言模型、预训练模型的特殊能力等。最后结合大语言模型和AGI探讨大语言模型是否存在智能,并提出未来具有发展前景的研究方向。
在报告分享后的Q&A环节,刘新宇博士与各平台的网友就大语言模型相关技术问题进行了广泛讨论,以下是本环节的问题和解答:
Q1:prompt 的工作原理是什么?
A1:其实prompt实际上它就是在引导模型在你给定的这个文本的基础上继续去生成。也就是说你给模型一个prompt,模型想做的事儿就是完成你这个prompt,让它变成一句完整的、看起来更像人话的东西,但是它可能不太理解你prompt里面真正的含义是什么。当然我们说今天是一个大型语言模型,它其实是可以理解这个其中的一些语义信息的。如果说到这个我们语言模型去建模,去生成这个过程的话,其实你给出的这些prompt实际上是模型去生成它基于的这种上文信息,实际上它是在这个条件概率的分母上的。你去采用不同的prompt,那模型会根据不同的分母上的值去进行一个下文的预测,所以说会返回不同结果。
Q2:什么是大模型的涌现能力
A2:大模型的涌现能力它实际上不是指某一个特定的能力,它是一类能力。这个能力它指的是我们这个模型在一个很小规模的时候它不具备,但是模型规模或参数规模和训练数据在scale变得很大之后,它突然拥有的一类能力。那像目前像我们这种复杂的这个推理能力,包括像小样本学习能力,其实都属于大模型的涌现能力的一种。
Q3:AIGC与AGI之间有什么区别
A3:AIGC和AGI之间的区别,它们可以说是两个不一样的概念。AGI它本质上指的是通用人工智能,其实我们这个片子花了不少的篇幅去介绍通用人工智能是什么,它是我们一个理想的一个人工智能的最终形态,就是这个人工智能它可以和人一样,与世界交互、与人类交互没有任何障碍,可以从经验中学习等等。那AIGC实际上指的是AI Generated Content,就是AI生成的内容。AIGC它更像是一类技术,甚至说是一个工作岗位。因为我有一个在微软实习的学弟,他实际上目前做的就是这个AIGC相关的工作,他做的事就是给我一段audio,就给我一段音频,再给我一个人脸,然后我去生成这个人脸说这段音频的一段视频,就是其实大家也可以理解,就是一个AI生成内容,AIGC。
Q4:大模型的指令微调是什么意思,作用是什么?
A4:大模型的指令微调实际上是这样,就是大语言模型它想变成这个AI assistant,就是说我们说AI助手,它实际上需要经过几个阶段,指令微调是其中之一。仅有预训练模型其实是不够的,因为预训练语言模型它想做的事儿仅仅就是文档补全,就是你给它什么,它继续去补、去生成。那假如说它在训练数据中,它见过一个很多个问题并列的这种文档,那你说我问你一个问题,它觉得这个我要做文档,我就返回给你一堆问题,我去补全这个文档,但是这肯定不是我们想要的。那我们AI assistant它需要完成人类的这个指令,那我们指令微调就是必不可少的一步。其实它和预训练阶段可能没有任何区别了,它的区别就是我指令微调的数据少、质量高,而且是以这种指令的形式去进行的。

Q5:人工智能的普及是否会造成技术依赖和人类技能退化。人类是否会丧失某些基本的技能和能力?
A5:实际上我觉得这种担心可能不是很有必要的,因为实际上在这个过去可能人类的生产力比较低的那个情况下,我们发明了这个工厂、生产车间,我们发明了这个拖拉机,什么自动收割麦子的机器,它实际上都解放了很多人的生产力。那我们到今天发明了这种AI,或者说这种大型的语言模型,它实际上它可以很大程度地提升我们的一个日常工作效率,而不会使我们说相应的一些能力发生退化。就拿我本人的一个体验来说,就是实际上现在使用ChatGPT已经成为我日常生活工作中不可分割的一部分了。我在有一些问题的时候,我习惯性地先去ChatGPT上,我就问一问。但是我不会说我就是相信它的答案,我会想看的是,就是它会返回给我,提供给我什么思路,提供给我什么灵感,包括写一些简单的代码、小demo,可能我自己写需要二三十分钟,但是我给ChatGPT它不到一分钟就给我搞定了。所以我觉得这个工具它并不会使人类的什么能力退化,它反而是说,对我们日常生活中非常有帮助,可以让我们这个工作和学习效率成倍提升的一个工具。
Q6:大型语言模型在实际应用中可能会面临哪些挑战。
A6:大型语言模型在实际应用中面临的挑战,其实目前可能能够说已经实际应用的像ChatGPT,其实大家已经试了非常非常多了。其实大型语言模型它可能存在的一个问题就是它会胡诌,就是它其实还是说回来,就是它虽然说是具有一定的智能,但它本质上还是在做语言模型的工作。说白了就是它的生成是基于它的知识去做的。那这个生成过程它可能会生成一些奇怪的内容,生成一些反事实的一些答案,就是与事实不符的这个答案。我觉得这个可能是接下来大型语言模型在应用过程中,它最大的一个问题之一。就是我们每一家公司想去推出自己的大型语言模型,那一定要解决的就是这个真实性检验,和它是否会生成一些危害言论,危害社会的这种言论,这个问题是需要解决的。
Q7:有没有好用的中文基座模型推荐?
A7:中文基座可能目前市面上,我个人觉得还挺好的基座首先就是清华前两天发表的ChatGLM2,其实我个人认为它的性能还是很强的,也是体验了一波。然后包括像IDEA它们发布的封神榜姜子牙模型,我个人觉得也是挺不错的。包括像复旦的MOSS以及贝壳BELLE,其实它们的中文能力都还挺好的,因为都是我们这种国产化的大模型。那当然我觉得如果我们目前想要选定一个基座,然后在它的基础上去做这个SFT和RLHF的话,那我觉得我们还是应该去自主地去针对这个目前这个国内的这几个模型去进行一波评价,在你真正关注的这个点,你去评估一下。因为目前对大语言模型的评估,其实可以说它的体系还没有那么的完善,每个人关注的点不同,那对于你关注的点,我觉得你也可以去对这几个模型做一个测评,并选择它可能在这个方面更强的一个模型。
Q8:大型语言模型在未来的发展趋势是什么?
A8:大型语言模型的未来发展趋势,这个问题也非常好,就是实际上我觉得比较有趣的一个方向,其实就是LeCun他提出的那个世界模型的方向,因为大型语言模型它本质上可能我在做的还是语言建模,当然现在GPT-4它可能是在做一个多模态。多模态的统一和多任务的统一,可能是这个大型语言模型它未来的一个发展趋势,就是包括LeCun他提出的这种世界模型,就是我如何设计不同的这种模块,然后让它去就是基于大语言模型去做赋能也好,还是做一个调度也好,我去获得一个更强的或者更高效的一个学习能力,那这个我觉得是比较有意思的一个研究方向。
Q9:预训练模型到ChatGPT之间的技术路线是怎样的。
A9:预训练模型到ChatGPT之间技术路线,就是实际上我在这次报告中有简单地提到,当然在我们后续的几期报告中,我们会重点地、详细地挨个技术点去说明。那实际上这个技术路线主要就是预训练模型,我们首先经过这个指令微调,我们获得这个SFT,然后在SFT之后,我们可能会经过这个RLHF,就是基于人类反馈的强化学习。我们最终得到的这个模型,它可能更符合我们日常的一些使用的习惯。就像我们这个片子里说的,可能我们在经过这两个阶段之后的这个模型,它的一个效果是我们人类更喜欢的。所以说其实主要的一个技术路线,就是我们预训练模型,然后经过这个指令微调,然后再经过人类反馈的强化学习,最后我们获得一个最终的一个类似于ChatGPT的AI助手。

以上就是直播问答环节的全部内容,下期报告《指令微调与上下文学习》将于7月13日18:30与您相见。更多关于报告的详细内容以及观看直播回放可于小牛翻译云平台视频号或机器翻译学堂获取。NiuTrans Talk,每期将邀请到不同领域的机器翻译专家进行讲解,分享行业干货知识,带你走进机器翻译的世界。更多精彩内容尽在小牛翻译直播间,想了解更多有关机器翻译的内容,请关注机器翻译学堂或小牛翻译官方账号,与小牛翻译一起探讨机器翻译技术。
关于我们
专注于机器翻译技术基础研究50年,拥有百余人的机器翻译产学研团队,自主研发以中文为核心的NiuTrans机器翻译系统,支持388种语言随心互译。通过丰富的应用与功能,为用户提供机器翻译服务全栈式解决方案,致力于为机器翻译产业化应用提供基础平台,帮助企业级用户在国际业务中消除语言障碍。

hi,这里是小牛翻译~
想要看到更多我们的文章,可以关注下
机器翻译学堂(公号或网站)
笔芯~

往期精彩文章


