LLM推理的局限性
扫描二维码
随时随地手机看文章
大型语言模型(LLMS)以其产生连贯的文本,翻译语言甚至进行对话的能力而破坏了AI。但是,尽管具有令人印象深刻的能力,但在推理和理解复杂环境方面,LLM仍然面临重大挑战。
这些模型虽然善于识别和复制大量培训文本的模式,但经常在需要真正理解和逻辑推理的任务上挣扎。这可能会导致诸如长时间对话中的不一致之处,连接不同信息的错误以及在维持有关扩展叙述的上下文时遇到的困难。了解这些推理问题对于改善LLM的未来发展和应用至关重要。
关键推理挑战
缺乏真正的理解
语言模型通过根据他们在培训期间从广泛的数据中学到的模式来预测下一个关键字来运行。但是,他们缺乏对环境和讨论的概念的深刻,内在的理解。结果,他们可能会发现需要真正理解挑战的复杂推理任务。
上下文限制
尽管现代语言模型在掌握短篇小说方面表现出色,但它们通常很难在扩展的对话或更大的文本段上保持连贯性和背景。当模型必须从对话或文本的各个部分链接信息时,这可能会导致推理错误。在漫长的讨论或复杂的叙述中,该模型可能会忘记或误解早期的细节,从而导致矛盾或不准确的结论。
无法执行计划
许多推理任务涉及逻辑的多个步骤或随着时间的推移跟踪许多事实的能力。当前的语言模型通常在需要长期连贯性或多步逻辑推论的任务上挣扎。他们可能难以解决需要多个逻辑操作的难题。
回答无法解决的问题
回答无法解决的问题是LLM的一个关键挑战,并突出了其推理能力的局限性。当提出一个无法解决的问题时,例如悖论,没有明确答案的问题,或与已建立的事实相矛盾的问题时,LLM可能会难以提供有意义或连贯的回答。该模型不能意识到问题的固有不可能,而是尝试根据已经训练的数据中的模式提供解决方案,这可能会导致误导或错误的答案。
国家空间计算复杂性
一些问题需要探索从初始状态到目标状态的所有可能状态。例如,旅行计划可能涉及许多选择,并且有了其他限制,例如预算和旅行方式,搜索状态空间可以接近多项式爆炸。语言模型计算和响应所有这些可能性是不切实际的。取而代之的是,它将依靠它所学会的启发式方法提供可能是不正确的可行解决方案。
不正确推理的真实示例
让我们提出一个问题:
纯文本
1
“一个装满了8个水的水罐,还有两个空尺寸5和5的空壶。
2
求解器必须倒入水,以使第一壶和第二壶都包含4个单元,而第三壶则是空的。
3
当源壶为空或目的地水罐已满,以先到者为准时,每个步骤将水从源果罐倒入目的地水罐停止。
从下面的回答中,我们可以看到,今天存在的LLM给出了错误的答案。这个问题实际上是无法解决的,但是所有LLM都试图给出一个答案,就好像他们找到了解决方案一样。
Chatgpt的回应
Google的回应
Bing Copilot的回应
LLMS背诵与推理
但是,如果您要将问题更改为“两个空的尺寸为5和4”,而不是“两个空的尺寸5和5”,那么所有LLM都会正确回答记忆的问题。
研究人员建议什么来帮助推理?
一些研究人员专注于改进数据集并使用思想链方法,而另一些研究人员则建议使用外部验证者和求解器。这些技术中的每一个旨在通过解决问题的不同维度来带来改进。
改进数据集
一些研究人员建议提高用于培训语言模型的数据的质量和多样性。通过策划更全面和多样化的数据集,模型可以从更广泛的上下文和示例中学习。这种方法旨在提高模型处理各种情况的能力。
经过思考链
该技术涉及培训模型遵循结构化的推理过程,类似于人类思维。通过鼓励模型明确地生成中间的推理步骤,研究人员希望提高模型处理复杂的推理任务并提供更准确,逻辑上一致的响应的能力。
使用外部验证器
为了解决产生错误或误导性信息的模型问题,一些研究人员提出了整合外部验证机制。这些验证者可以针对受信任的来源进行跨检查模型的输出,或者在向用户提交信息之前,使用其他算法来验证信息的准确性。这有助于确保生成的内容可靠并且实际上是正确的。
使用求解器
另一种方法涉及合并旨在处理特定类型推理任务的专业求解器。这些求解器可用于执行计算,求解方程或过程逻辑语句,以补充语言模型的功能。通过将这些任务委派给求解器,总体系统可以实现更准确和可靠的结果。
结论
尽管在文本生成和理解等领域取得了令人印象深刻的进步,但当前的语言模型由于无法完全掌握含义,保持一致的环境并仅依靠大型但潜在有缺陷的培训数据提取的模式而在复杂的多层推理任务中挣扎,因此它们的多层推理任务挣扎。为了解决这些限制,未来的模型可能需要更复杂的体系结构,以及正在进行的常识推理研究。