您现在的位置是:首页 > 人工智能 >
中国工程院院士张亚勤:20年内将实现通用人工智能
2024-07-24 16:21:24作者:于帆来源:
摘要近日,2024世界人工智能大会暨人工智能全球治理高级别会议在上海举行。在前沿人工智能安全与治理论坛上,清华大学智能产业研究院院长、中国 ...
近日,2024世界人工智能大会暨人工智能全球治理高级别会议在上海举行。在前沿人工智能安全与治理论坛上,清华大学智能产业研究院院长、中国工程院外籍院士张亚勤发表演讲。他提出,为确保大模型的技术进步不会带来无法控制的风险,要给大模型建立分级制度,要规范模型构建的全流程,要清晰地画出红线和边界。
AI大模型有五大发展方向
张亚勤表示,人工智能在未来十年有五大发展方向。
第一,多模态智能,指将语言、文字、视频、激光雷达点云、3D结构信息、4D时空信息以及生物信息,实现多尺度、跨模态的智能感知、决策和生成。
第二,自主智能,即智能体(Agent),能够自主规划任务、编写代码、调动工具、优化路径、实现目标,包括N+1版本的自我迭代,升级和优化。
第三,边缘智能,指在边缘和设备终端(如AI PC、AI手机等)实现高效率、低功耗、低成本、低延时地部署大模型。
第四,具身智能,过去被叫作“物理智能”,指将大模型用于无人车、机器人、机械臂、无人机和工厂、电网、电站等物理基础设施。
第五,生物智能,包括人体、人脑、医疗机器人,生物体和生命体的连接和控制。
通用人工智能何时可以实现?张亚勤给出的答案是20年。他将未来通用人工智能的实现分为三阶段,分别是信息智能、具身智能和生物智能。
5年内,在信息智能领域,对语言、图像、声音和视频的理解、生成等方面通过新图灵测试;10年内,在具身智能领域,实现大模型在物理环境中的理解与操作能力,通过新图灵测试,在2030年之前,具身智能或将成为主流应用;20年内,在生物智能领域,聚焦人体、脑机接口、生物体、制药和生命科学,实现大模型与生物体连结的生物智能,通过图灵测试。
警惕大模型安全问题
大模型强大能力的背后,也隐藏着极大的风险。除了信息世界的数据问题,张亚勤也提到,在物理世界,未来的机器人、无人车数量暴增,依赖大模型控制它们,主动风险或被动风险都很大,生物智能、物理智能、信息智能融合后面临的风险将再度升级,一旦失控或被滥用,或将造成人类生存危机。
业界曾提出,要将人工智能未来的风险,以核武器和流行病一样的优先级去看待。英国首相苏纳克曾警告称,人工智能可能带来的风险堪比原子弹。大模型的安全问题主要是在未经同意的情况下,收集、使用和泄露个人信息。中国科学院院士何积丰曾提到,安全问题可能发生在训练过程中,也可能发生在使用过程中,而大模型的生成能力则让安全问题的表现形式更加多样化。
如何应对大模型的安全问题?张亚勤表示,需要系统性的安全工程,涵盖输入、输出、安全评估和治理的全流程,其中非常重要的一点是大模型“对齐”技术。所谓“对齐”,就是指人工智能追求与人类价值观一致的目标,使其符合设计者的利益和预期,不对人类的价值和权利造成干扰和伤害。
张亚勤提到两种“对齐”方法。一是直接监督的微调,即把高质量的有用的安全的信息直接用于监督微调。二是基于偏好的微调,即选择反映所需价值观和偏好的数据对预训练模型进行微调,通过调整模型的参数,使其在处理相似类型的输入时,能够生成更符合偏好的输出。
提出五大政策层面建议
除技术层面外,张亚勤也在政策层面就大模型的安全问题提出了个人建议,以确保技术进步不会带来无法控制的风险。
第一,建立分级体系。张亚勤建议,对模型进行分级管理,类似于自动驾驶的分级制度。对参数量巨大、能力较强的超大型模型(如超过万亿参数的模型),施加更严格的规范和约束,而对于参数量较小、能力一般的模型,则可以给予更大的发展空间。
第二,规范模型构建全流程,建立实体映射机制。张亚勤表示,无论是模型本身的数据收集、对齐、评估,还是具体使用场景,都需要建立一套严格的标准。如医疗机器人,除需要符合无人车评估体系外,也需要通过医学场景测试。实体映射机制是指明确AI内容的来源和责任归属。例如,如果AI生成的内容用于广告或其他商业用途,需要明确标注这是由AI生成的,以避免误导用户。未来的机器人,无论是实体机器人还是虚拟机器人,都要能溯源到安全生产的主题。
第三,投入研发经费到安全和风险领域。张亚勤建议从10%开始,逐步增加到30%,以确保有足够的资源用于研究和解决AI技术可能带来的安全问题。
第四,清晰地画出红线和边界。张亚勤提到,国家间可以共同画定AI红线和边界,明确AI的禁止行为。例如,AI模型不应该被允许自我复制,或者在没有人类监督的情况下进行关键操作,如控制核电站等。
第五,建立国际合作和协调机制。建立一个国际性的沟通、合作和协调机制,包括共同制定标准、评估方法和合作方式等。这需要专家、政策制定者、政府以及不同领域的人共同参与,以确保AI技术的健康发展。
(本文不涉密)
责任编辑:于帆
AI大模型有五大发展方向
张亚勤表示,人工智能在未来十年有五大发展方向。
第一,多模态智能,指将语言、文字、视频、激光雷达点云、3D结构信息、4D时空信息以及生物信息,实现多尺度、跨模态的智能感知、决策和生成。
第二,自主智能,即智能体(Agent),能够自主规划任务、编写代码、调动工具、优化路径、实现目标,包括N+1版本的自我迭代,升级和优化。
第三,边缘智能,指在边缘和设备终端(如AI PC、AI手机等)实现高效率、低功耗、低成本、低延时地部署大模型。
第四,具身智能,过去被叫作“物理智能”,指将大模型用于无人车、机器人、机械臂、无人机和工厂、电网、电站等物理基础设施。
第五,生物智能,包括人体、人脑、医疗机器人,生物体和生命体的连接和控制。
通用人工智能何时可以实现?张亚勤给出的答案是20年。他将未来通用人工智能的实现分为三阶段,分别是信息智能、具身智能和生物智能。
5年内,在信息智能领域,对语言、图像、声音和视频的理解、生成等方面通过新图灵测试;10年内,在具身智能领域,实现大模型在物理环境中的理解与操作能力,通过新图灵测试,在2030年之前,具身智能或将成为主流应用;20年内,在生物智能领域,聚焦人体、脑机接口、生物体、制药和生命科学,实现大模型与生物体连结的生物智能,通过图灵测试。
警惕大模型安全问题
大模型强大能力的背后,也隐藏着极大的风险。除了信息世界的数据问题,张亚勤也提到,在物理世界,未来的机器人、无人车数量暴增,依赖大模型控制它们,主动风险或被动风险都很大,生物智能、物理智能、信息智能融合后面临的风险将再度升级,一旦失控或被滥用,或将造成人类生存危机。
业界曾提出,要将人工智能未来的风险,以核武器和流行病一样的优先级去看待。英国首相苏纳克曾警告称,人工智能可能带来的风险堪比原子弹。大模型的安全问题主要是在未经同意的情况下,收集、使用和泄露个人信息。中国科学院院士何积丰曾提到,安全问题可能发生在训练过程中,也可能发生在使用过程中,而大模型的生成能力则让安全问题的表现形式更加多样化。
如何应对大模型的安全问题?张亚勤表示,需要系统性的安全工程,涵盖输入、输出、安全评估和治理的全流程,其中非常重要的一点是大模型“对齐”技术。所谓“对齐”,就是指人工智能追求与人类价值观一致的目标,使其符合设计者的利益和预期,不对人类的价值和权利造成干扰和伤害。
张亚勤提到两种“对齐”方法。一是直接监督的微调,即把高质量的有用的安全的信息直接用于监督微调。二是基于偏好的微调,即选择反映所需价值观和偏好的数据对预训练模型进行微调,通过调整模型的参数,使其在处理相似类型的输入时,能够生成更符合偏好的输出。
提出五大政策层面建议
除技术层面外,张亚勤也在政策层面就大模型的安全问题提出了个人建议,以确保技术进步不会带来无法控制的风险。
第一,建立分级体系。张亚勤建议,对模型进行分级管理,类似于自动驾驶的分级制度。对参数量巨大、能力较强的超大型模型(如超过万亿参数的模型),施加更严格的规范和约束,而对于参数量较小、能力一般的模型,则可以给予更大的发展空间。
第二,规范模型构建全流程,建立实体映射机制。张亚勤表示,无论是模型本身的数据收集、对齐、评估,还是具体使用场景,都需要建立一套严格的标准。如医疗机器人,除需要符合无人车评估体系外,也需要通过医学场景测试。实体映射机制是指明确AI内容的来源和责任归属。例如,如果AI生成的内容用于广告或其他商业用途,需要明确标注这是由AI生成的,以避免误导用户。未来的机器人,无论是实体机器人还是虚拟机器人,都要能溯源到安全生产的主题。
第三,投入研发经费到安全和风险领域。张亚勤建议从10%开始,逐步增加到30%,以确保有足够的资源用于研究和解决AI技术可能带来的安全问题。
第四,清晰地画出红线和边界。张亚勤提到,国家间可以共同画定AI红线和边界,明确AI的禁止行为。例如,AI模型不应该被允许自我复制,或者在没有人类监督的情况下进行关键操作,如控制核电站等。
第五,建立国际合作和协调机制。建立一个国际性的沟通、合作和协调机制,包括共同制定标准、评估方法和合作方式等。这需要专家、政策制定者、政府以及不同领域的人共同参与,以确保AI技术的健康发展。
(本文不涉密)
责任编辑:于帆