事实证明,告诉AI聊天机器人简洁响应可以比以往任何时候都提供更多的幻觉。这是人工测试公司Giskard的一项新研究的结论。 Giskard专注于为人工智能模型开发一般的基准。公司研究人员在详细介绍其研究发现的博客文章中说,激励用户对问题提供更短的答案,尤其是在模糊主题上,可能会对AI模型的真实性产生负面影响。 “我们的数据表明,对系统指令的简单更改可能会影响模型创造幻觉的趋势。此搜索对于扩展很重要,因为许多应用程序先于简洁的输出,以减少[数据]的使用,改善延迟并降低成本,”研究人员写道,“幻觉是一个棘手的问题。顶级型号以及OpenAI的GPT-4O(默认ChatGpt模型),当被要求提供一个简短的答案时,Mistral Big and Anthropic的Claude 3.7十四行诗的准确性都会下降。没有“空间”来识别更高的解释并指出错误。对于开发人员来说,也许最重要的是一个看似无害的系统,例如“简单性”,可以打破模型删除错误信息的能力。奇迹,例如用户有信心提出有争议的意见,模型不可能加深这些观点。是这些期望的时候包含错误的地方。