Token Robin Hood
人工智能代理2026 年 4 月 25 日5分钟

当退出条件较弱时,人工智能代理的炒作看起来就像昂贵的循环

一个新鲜的 r/AI_Agents 线程 快速切入闪亮的演示故事:构建者仍然看到多步骤代理在同一任务上旋转,失去项目连贯性,并且需要太多的设置来完成简单的工作。线程中最有用的回复进一步加深了诊断。问题不在于存在循环。问题是运行时仍然无法区分可恢复的参数丢失和死刀具路径之间的区别。

发生了什么Reddit 上的一场现场讨论将当前代理的痛苦描述为循环债务、上下文漂移和繁重的设置,而不是神奇的自主权。
为什么建筑商关心如果重试条件模糊,则在工作流程产生任何值得保留的值得信赖的内容之前,令牌燃烧就会加剧。
TRH 行动在工具调用上签订合同,停止重试模式不匹配,并在扩展工作流程之前衡量每个成功任务的成本。

有用的反对不是反代理,而是反连枷

最初的帖子列出了 2026 年 4 月下旬仍然存在的三个痛点:循环推理会消耗预算、上下文在太多步骤后会发生变化,以及产品界面对于普通操作员来说配置起来太痛苦。与一般的“代理被过度炒作”的话语相比,这是一个更好的市场解读,因为它指向操作层,而不仅仅是模型质量。

线程中最强烈的评论推动了相同的方向:循环不会自动变坏,但没有工作终止逻辑的循环会变得昂贵。如果代理无法区分失败是否来自错误的参数、死 API 或无效的响应形状,则每次重试在本地看起来都是合理的,而任务在全局上却变得毫无意义。

疲软的工具合约将炒作变成重试债务

这就是当前代理堆栈仍然存在可信度的地方。团队将强大的模型包裹在宽阔的工具带中,添加重试,并假设该工具会自行解决。在实践中,安全带通常缺乏成功和失败的严格契约。该模型将“再次调用工具”视为合理的下一步行动,因为运行时从未给它一个硬操作边界。

这就是为什么昂贵的循环投诉不断出现在“代理商感觉像炒作”旁边。建筑商所经历的炒作通常只是可观察性债务。系统可以叙述进度,但它无法可靠地决定步骤何时无效、运行何时应停止,或者输出质量何时太弱而无法证明另一轮的合理性。

团队在添加更多编排之前应该衡量哪些内容

端到端地衡量一项任务。跟踪首次有用输出、总重试次数、重复有效负载大小、工具调用计数,以及在人工干预或安全带退出之前运行跨越相同故障状态的次数。然后按类别区分故障:参数不匹配、模式不匹配、传输中断、身份验证问题和实际模型混乱。

Token Robin Hood 属于该层。重点不是承诺有保证的节省。重点是帮助团队在工作流程赢得支出之前分析、发现和优化令牌使用扩展的确切位置。

下一步的实际行动

选择一种已经感觉脆弱的代理工作流程。围绕每个工具响应制定明确的合同。如果响应形状错误,则停止。如果工具已放下,请停止。如果模型正在重试相同的步骤而没有状态更改,则停止。一旦存在这些边界,重新运行任务并比较每个成功结果的成本。与关于“真正的代理人”是否存在的另一场争论相比,这给了你一个更清晰的信号。

来源