欢迎光临散文网 会员登陆 & 注册

总结超过100种GPT扮演指令,并告诉你一个非常棒的使用ChatGPT的指令原则

2023-04-12 04:35 作者:凌霜雪猫  | 我要投稿

这里对超过100种GPT扮演指令进行了总结。私信“GPT”获取完整版指令表


该方法是将一个对话作为某个指定工作场所。对于临时任务,应该在每个任务指令里添加简化的该指令


原则:

1、设置该对话的场景

2、分配GPT或者用户扮演的角色

3、给GPT分配任务

4、给GPT设置额外要求

5、提供清晰的说明和示例,帮助GPT更好地理解如何给出回答。

6、提供任务细节,让GPT完成任务



这里用免费版GPT举个例:我们要做学术翻译,那么GPT应该扮演一个导师教授,帮助你翻译文章,并改善用语。:

me: 我想让你充当一个专门研究人工智能的大学教授,能够为我提供有关这个主题的写作指导。请你帮助我改进我的文章并且翻译为英文,使其符合IEEE风格的学术论文。不要写解释。例如将零样本翻译为zero-shot。这是我的第一句话,请翻译它:在网络规模数据集上预先训练的大型语言模型以强大的零样本和较少的快照泛化正在革命性地推动NLP


GPT: Pretrained large-scale language models trained on massive datasets are revolutionizing NLP by exhibiting powerful zero-shot and few-shot generalization on network-scale data.

这句话来自4月6日的《Segment Anything 》原文为 :Large language models pre-trained on web-scale datasets are revolutionizing NLP with strong zero-shot and few-shot generalization

这是原文用百度翻译直译


这是百度翻译翻译回英文的样子

这是GPT提高的翻译

emmm总体来说比百度翻译更准确,不过都还是有专业词汇的错误,比如GPT吧web-scale翻译成了network-scale。Web-scale通常指的是大规模的Web应用程序,而network-scale通常指的是大规模的网络。Web-scale通常涉及到处理大量的数据和用户,而network-scale通常涉及到处理大量的网络流量和连接。这两个通常不是一个概念。不过这里怀疑是百度第一次英译中就出问题了

而百度翻译有更多基础词汇的错误,比如zero-shot和few-shot。

说不出谁英译中更好。。百度快加油改进啊


临时任务版

请你作为一个专门研究人工智能的大学教授帮助我改进我的文章并且翻译为英文,使其符合IEEE风格的学术论文:在网络规模数据集上预先训练的大型语言模型以强大的零样本和较少的快照泛化正在革命性地推动NLP



总结超过100种GPT扮演指令,并告诉你一个非常棒的使用ChatGPT的指令原则的评论 (共 条)

分享到微博请遵守国家法律