首页
洞察
早报
日报
主题探索
关于
大模型执行力
洞察 Insights
解构大模型“翻车”黑箱:从推理幻觉到执行困境,AI Agent可靠性的核心突破
剑桥大学等机构的最新研究颠覆了对大模型“翻车”的传统认知,指出核心问题在于其执行多步任务时的稳定性不足,而非推理能力。特别是一种名为“自条件化效应”的机制,导致模型因自身错误而持续犯错。通过采用“思考”机制和扩大模型规模,AI有望显著提升其长视界执行能力,为构建更可靠、更具经济价值的AI Agent提供了清晰的技术方向。
阅读全文