欢迎光临散文网 会员登陆 & 注册

m3e可能是目前最强的开源中文embedding模型

2023-07-12 23:25 作者:AI日日新  | 我要投稿

notebook链接:


首先安装依赖:

接着加载m3e-base模型:

最后即可开始文本转向量:


如果你的电脑资源较好,还可以将model = SentenceTransformer('moka-ai/m3e-base')修改为model = SentenceTransformer('moka-ai/m3e-large')来加载更强模型

m3e可能是目前最强的开源中文embedding模型的评论 (共 条)

分享到微博请遵守国家法律