共话AI向善 2024世界人工智能大会翻开全球治理新篇章
图片来源于网络,如有侵权,请联系删除
以“以共商促共享 以善治促善智”为主题的2024世界人工智能大会暨人工智能全球治理高级别会议于7月4日—6日在上海召开。本届大会期间,来自世界各地的专家学者围绕人工智能前沿技术的发展与治理,探讨全球治理面临的挑战和应对措施,探索构建人工智能治理的全球框架。本届大会也充当了人工智能全球治理的高级别“议事厅”,向世界展示“中国智慧”“上海方案”。
上海人工智能实验室主任、衔远科技创始人周伯文在大会期间表示,“从算法研究、人才密集度、商业驱动力和算力等方面来看,我们对人工智能安全的投入远远落后于对人工智能性能的投入。现在,世界上只有1%的资源投入在安全考量上。”
基于此,周伯文提出一个技术主张:探索人工智能45度平衡律。对于人工智能系统的安全和能力可否兼得,他认为,要沿着可信AGI(通用人工智能)的“因果之梯”拾级而上,进入泛对齐、可干预、能反思三个阶段,探索二者系统性平衡之路。
“目前,人工智能安全和性能技术发展主要停留在第一阶段,部分在尝试第二阶段。但要真正实现人工智能的安全与性能平衡,我们必须完善第二阶段并勇于攀登第三阶段。”周伯文说,最终,像安全可控的核聚变技术为全人类带来清洁、丰富的能源一样,人类可以通过深入理解人工智能的内在机理和因果过程,从而安全有效地开发和使用这项革命性技术。
在清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜看来,人工智能的治理与发展已走到关键的“十字路口”,尤其是生成式人工智能所带来的挑战是前所未有的。第一,人工智能技术的发展速度远远快于监管制度的制定速度,首当其冲的便是发展与治理的平衡问题。第二,人工智能引发的问题前所未有,这使人工智能监管变得空前复杂,没有任何一个监管机构能够单独管理好人工智能牵涉的各个方面。第三,随着国际格局变化,国际社会不太可能形成一个单一的全球性机构,来监管人工智能发展的方方面面。因此,加强国与国之间的人工智能治理沟通与合作非常必要。
人工智能可能带来一些显而易见的风险,薛澜表示。第一,技术内在问题,包括所谓幻觉、自主发展的可能、对人类社会的威胁等;第二,基于技术开发带来的风险,包括数据安全问题、算法歧视、能源环境等;第三,技术应用带来的调整,包括误用、滥用、对社会就业的影响等。
解决这些问题,薛澜认为,要把发展和安全作为“一体两翼”。国际社会不仅要重视安全问题,更要关注人工智能鸿沟、数智鸿沟等。各国应通过多途径建立国际交流及防控体系;同时,希望联合国等国际组织能起到全面协调的作用。
中国科学院自动化研究所研究员,联合国人工高层顾问机构专家曾毅也谈到了人类对人工智能潜在风险的忽视。他说,“数据显示,2023年人工智能所带来的风险是2022年的10倍以上,这意味着,生成式人工智能的发展,把这项风险带向了社会各个领域,并且在各国之间反复出现。大家更多关注人工智能发展的机遇,对可能产生的隐患却没有更好地学习。”
他介绍,2020年起,联合国教科文组织召集了一批来自各国的人工智能伦理专家,撰写了全球人工智能伦理的建议书,体现了各国对人工智能伦理的共识。“但仅形成伦理共识是不够的,如何落地才是关键。”
曾毅强调,如果出现比人类更聪明的智能存在,人类在这一过程中需要进行反思和思维演化,要从以人类为中心转化为以生态为中心。“人工智能像一面镜子,让我们看到自身的不足,同时也反过来加速人类发展。”
“控制好人工智能,但又不能破坏它。”图灵奖得主、中国科学院院士、清华大学交叉信息研究院院长姚期智表示,风险体现在三个方面:一是网络风险延伸和扩大。二是没有意识到的社会风险,三是生存或者存在的风险。“一方面我们把人工智能控制好,毕竟这是我们设计出来的;另外一方面,也不希望它被我们给破坏了,这样权衡是非常困难的。正如图灵所说,这是无法预测的,预测不了机器有了足够算力之后会做什么。”
中国工程院院士高文指出,人工智能的安全风险可以从模型、算法硬件、自主意识不可控三个方面考虑。开展国际合作研究和人才培养是提高人工智能安全水平的关键。