12月26日,阿里巴巴集团和中国电子技术标准化研究院联合召开大模型技术发展与治理创新研讨会。浙江大学百人计划研究员褚志轩在会上表示,智能体的安全问题可能比单纯的大模型更加严重,管控起来也更复杂。
褚志轩说,当前用户使用大模型进行对话,一般会输出一个结果,决定权在用户,他们可以采纳,也可以不用。相比之下,智能体将会直接执行更加真实的任务,智能体是大模型最重要的落地形式,未来可能会被应用到千行百业。
褚志轩进一步说明,当前使用较多的聊天问答场景,其实还是一个比较简单的方式应用大模型。智能体能够完成更加复杂的工作。例如,在医疗领域的话,智能体可能会先给病人做诊断,然后告知病人结果,或是给病人推荐用药。这意味着,管控智能体既要对大模型进行管控,也要在垂直领域做一些特殊的管控。
褚志轩认为,对智能体的管控需要从两个方面着手:一方面是从技术层面保障智能体安全可信。这并非需要我们完全介入到智能体所有的工作流程中,因为像办公软件钉钉,里面有很多智能体,应用比较广泛,人力可能难以完全监控到所有漏洞。从技术上而言,未来更可能会是由智能体来管理智能体。因为每个智能体都可以被定义为不同的角色,它既可以是一个执行者去完成任务,也可以是一个管理执行者的监察者。另一方面则是完善治理规范,在智能体的发展过程中,推出规章制度规范其应用,出现问题就可以按此进行修正。
智能体被视为大模型落地的“最后一公里”,它以大模型为大脑,具备思维能力,且通过传感器、工具和函数接口拥有感知能力和执行能力。
目前,美国人工智能研究公司OpenAI、谷歌、阿里巴巴和百度等一众国内外大模型厂商都在积极布局智能体。例如,12月12日,谷歌推出大模型Gemini 2.0 ,并且开发了多个领域的智能体。百度、字节跳动等公司相继推出协助开发者构建智能体的平台。11月,百度透露目前运用文心智能体平台的开发者已经突破80万,平台上智能体的数量和今年6月相比提升了310%。