欢迎光临散文网 会员登陆 & 注册

大语言模型之羊驼(alpaca-lora)评测

2023-05-25 12:41 作者:生信小院  | 我要投稿


一 起因

之前的推文中有介绍了dolly(见大语言模型之dolly(ChatGPT平替版)评测,含安装说明哦!)。现在,介绍另一种大语言模型,alpaca-lora,其作为斯坦福开发的新的大预言模型,最近也因为可以在消费级显卡应用而受到关注。

二 正文

2.1 克隆仓库与安装依赖

首先,肯定是官方地址了

然后,读者只需要通过以下操作


2.2 下载模型

接着,需要去huggingface官网网站上下载对应的模型文件,下载的地址在

在网站上我们可以看到这些文件,需要将llama-7b-hf和alpaca-lora-7b各自下载到对应的文件夹中。


2.3 改写脚本,适应命令行操作

改写作者的脚本。这是因为作者的脚本是直接调用gradio去生成web服务。而笔者在这里只是为了在命令行端与大模型来个深度对话(读者可以直接取用,不用考虑代码的细节)。

随后,调用上面的脚本即可启动大模型。不过,本推文中调用的是官方的模型文件,所以调用脚本时需要指定base_model和lora_weights权重文件存放位置。


2.4 错误排查

注意的是,运行时可能会报下面的报错

这是因为你实际上使用的是cuda版本的文件,而这个包则默认调用cpu版本的文件。因此,读者先通过nvidia-smi查看自己的cuda版本,之后将对应cuda版本的文件通过复制替换掉cpu版本的文件,即可解决问题。


2.5 模型测试

一切就绪后,读者就可以愉快的调用这个大模型进行沟通对话了。但是,怎么说呢,不知道是因为模型文件太小的原因还是怎么回事,目前这个大语言模型的对话感觉仍是漏洞百出,不如ChatGPT。目前来看,消费级的大语言模型也需要进一步的优化。虽然,仓库的作者声称经过调教,是能够达到3.5的。但是,这又会是另一番的苦工了,但是笔者稍后会考虑出一期如何对大模型进行调教的内容,欢迎各位读者批评指正。

三 惯例小结

最近,AIGC似乎稍微有点降温了,不像ChatGPT3刚出来的时候那么火爆。人们也开始渐渐习惯身边多了一个这样的AI助手。然而,笔者想说的是,虽然目前AIGC总体还是在好的方向的发展,我们仍得对这种AI保持警惕,警惕技术被坏人所应用,且毫无监管的使用。

四 公众号其他资源(方便读者使用)

本公众号开发的相关软件,Multi-omics Hammer软件和Multi-omics Visual软件欢迎大家使用。

Multi-omics Hammer软件下载地址:

https://github.com/wangjun258/Multi-omics-Hammer

Multi-omics Visual软件下载地址:https://github.com/wangjun258/Multi_omics_Visual/releases/tag/Multi_omics_Visual_v1.03

PS:因为本软件是用python脚本撰写,调用了部分依赖包,用户首次使用需要安装python以及对应的包,安装之后便可永久使用。

下面是本号在其他平台的账户,也欢迎大家关注并多提意见。

简书:WJ的生信小院

公众号:生信小院

博客园:生信小院

最后,也欢迎各位大佬能够在本平台上:1传播和讲解自己发表的论文;2:发表对某一科研领域的看法;3:想要达成的合作或者相应的招聘信息;4:展示自己以寻找博后工作或者博士就读的机会;5:博导提供博后工作或者博士攻读机会,都可以后台给笔者留言。希望本平台在进行生信知识分享的同时,能够成为生信分析者的交流平台,能够实现相应的利益互补和双赢(不一定能实现,但是梦想总得是有的吧)。 

五 封面图


嘿嘿,答案详见下一篇推文呦


大语言模型之羊驼(alpaca-lora)评测的评论 (共 条)

分享到微博请遵守国家法律