快速阅读:所谓的“人在回路”正演变成一种荒诞的循环:人类被困在由无数AI Agent组成的会议室里,负责在算法的无休止博弈中签字。这种模式非但没有减轻负担,反而让人的角色从创造者降级为承担责任的防火墙。
总有人觉得,只要在系统里留个“人在回路”,风险就能被锁死。这想法挺天真。
如果把AI系统看作一个复杂的分布式系统,现在的趋势不是让人去操作指令,而是让人去审批指令。有网友提到,这种模式极其低效。想象一下,为了处理一个任务,系统先派出一组对抗性Agent互相吵架,接着又派出一组中立Agent去调解,最后还得搞个监督Agent来审核这些调解结果。人类最后的作用,大概就是坐在屏幕前,看着这些消耗CPU的循环,最后签个字。
这哪里是控制,这简直是把人当成了系统的“熔断器”。一旦系统逻辑跑偏或者发生故障,责任会像水流进排水管一样,顺着这个“人在回路”的接口,精准地灌进人的身体里。
有观点认为,这可能是未来大量被裁减员工的新工作:坐在那里处理AI的审批请求。这种工作的逻辑很奇怪,决策权重取决于你过去“成功”的记录,你不再是决策者,你只是一个验证逻辑是否符合历史概率的采样点。
这种架构有个致命的缺陷。如果系统本身在产生热量,增加更多的逻辑层级并不会降温,反而会引发火灾。当AI开始通过自我博弈来模拟决策时,人类的存在更像是一种为了满足合规性而存在的“占位符”。
有人觉得这种思维格局太小,认为自动化和人在回路并不冲突。但问题在于,当自动化程度达到临界点,人类介入的成本和响应速度,真的能跟上算法的吞吐量吗?
也许几年后,回看现在的“人在回路”,会觉得像是在用算盘试图同步卫星时钟一样滑稽。
www.reddit.com/r/agi/comments/1s9kgm6/we_will_simply_keep_a_human_in_the_loop/