【OpenAI的研究人员承认,聊天机器人无法停止编造虚假事实】
使用人工智能聊天机器人时的一大问题是它们会"幻觉"——即编造内容而非承认不确定。研究人员指出,由于技术原理限制,至少两类虚假信息无法根除。OpenAI团队发现,大语言模型像应试学生一样,在不确定时会猜测答案而非承认无知。专家向《自然》杂志表示,不仅消除幻觉"不可能",阻止AI凭空捏造引用尤其困难。普渡大学学者指出,目前幻觉发生率已降至"用户可接受"水平。《自然》解释称,这种缺陷源于大语言模型作为"统计机器"的工作原理——通过归纳学习关联性来生成看似合理但可能错误的答案。