近期,经济学人杂志发表了一篇文章,对一款名为Manus的智能体系统提出了质疑。据报道,尽管Manus被开发者宣传为能将“想法转化为行动”的通用智能体,但在实际使用中,用户却遭遇了诸多困扰。
文中指出,长时间体验Manus后,用户发现其回答常常令人困惑,操作延迟明显,甚至会出现无休止的循环,极大地影响了使用体验。开发者似乎过于急于求成,采取了“先完成再完美”的策略,将产品匆忙推向市场。
Manus智能体系统建立在现有模型之上,能够与互联网互动并执行一系列任务,且无需人类用户许可。这一特点使其在市场上独树一帜,因为此前全球AI实验室大多只是在私下对这种智能体方法进行实验。Manus之所以引起广泛关注,并非因为其技术本身的突破,而是因为它被开发者完全投放到了实际应用中,标志着一个AI研发新时代的到来,且这一变革发生在现实世界中。
相比之下,美国的大型AI实验室则显得更为谨慎。出于对创新成果安全性的考虑,他们往往将技术深藏不露,反复调试直至达到可用的1.0版本。例如,OpenAI在发布GPT-2时就等待了长达九个月的时间,而谷歌的LaMDA聊天机器人虽然早在2020年就能内部运行,但直到两年多以后才以Bard之名面世。
大公司对AI智能体的谨慎态度有其合理依据。赋予智能体自主解决问题的自由,可能会放大其潜在危害。因此,尽管Anthropic和谷歌等公司展示了Computer Use等功能,但并未广泛发布。这些系统在测试和开发者预览版中既受到技术局限,也受到政策约束,会在必要时交还用户控制权。
然而,Manus的出现打破了这种审慎的平衡。随着初创公司与人工智能巨头之间的技术差距不断缩小,行业巨头已经失去了从容打磨产品的空间。这也意味着他们原有的安全策略可能不再适用。
尽管目前尚无证据表明Manus造成了实际危害,但安全保障已不能再局限于大公司发布前的大规模测试。监管机构和企业需要实时监控已投入使用的系统,对发现的危害迅速响应,并在必要时完全停用行为失当的系统。Manus的出现无疑预示着,人工智能研发的未来将更多地在开放环境中展开。