转:【大语言模型评估的困境】
【大语言模型评估的困境】 - 评估大语言模型存在多个困难,包括提示敏感性、构造效度、污染等。 - 关于ChatGPT偏见的论文存在方法缺陷,提示工程会影响结果。 - 语言模型的政治偏见很难独立评估,需要采用自然观察法。 - GPT-4 通过专业考试不代表真正能力,存在构造效度问题。 - 基于语言模型的科研复现危机严重,评估方法存在局限性。 - 语言模型评估存在风险,需要谨慎应用。 - 呼吁开源语言模型研究,以减少风险。 - 总体而言,评估语言模型存在多方面困难,需要谨慎对待相关研究成果。