中方多条倡议成为英国AI峰会宣言内容五个要点解读《布莱切利宣言
【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前AI领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。
复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任
自英国首相6月7日宣布英国将主办首届人工智能安全全球峰会以来,中国是否会参与该峰会便一直是各方关注的焦点。
2023年11月1日,该峰会在布莱切利园(Bletchley Park)正式开幕。来自各国的100多名政界和商界名人出席,包括美国副总统哈里斯、欧盟委员会主席冯德莱恩、OpenAI的奥特曼、特斯拉的马斯克、谷歌DeepMind的哈萨比斯、Arm的哈斯等。
中国科技部副部长吴朝晖率领由科技部、外交部、中国科学院、阿里巴巴、腾讯组成的代表团参会,并在开幕式全员会议上发言。与会期间,代表团参与了人工智能安全等问题的讨论,宣介了中方几天前提出的《全球AI治理倡议》,接下来还会和相关国家开展双边会谈。中国也联署了会议的重要成果文件——关于人工智能国际治理的《布莱切利宣言》。
值得关注的是,本次《布莱切利宣言》中,多条内容都能与中方《全球AI治理倡议》中的内容有对应,表明中方的倡议在本次峰会的宣言中多处有体现。
本次《布莱切利宣言》中,多条内容都能与中方《全球AI治理倡议》中的内容有对应
《全球人工智能治理倡议》第一条指出,发展人工智能应坚持“以人为本”理念,以增进人类共同福祉为目标,确保人工智能始终朝着有利于人类文明进步的方向发展。
《布莱切利宣言》第一段申明,为了所有人的利益,AI应该以安全、以人为本、可信赖和负责任的方式设计、开发、部署和使用。
《全球人工智能治理倡议》第二条指出,面向他国提供AI产品和服务时,应尊重他国主权,严格遵守他国法律。
《布莱切利宣言》第九段指出,在开展合作的同时,应认识到做法可能因国情和适用的法律框架而有所差异。
《全球人工智能治理倡议》第五、六条指出,推动建立风险等级测试评估体系,研发主体逐步的提升人工智能可解释性和可预测性,逐步建立健全法律和规章制度。
《布莱切利宣言》第七段强调,开发前沿人工智能能力的参与者对确保这些AI系统的安全负有特别重大的责任,包括通过安全检测系统、通过评估以及通过其他适当措施。
《布莱切利宣言》第三段指出,应认识到要解决保护人权、透明度和可解释性、公平、问责、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护等问题。
《全球人工智能治理倡议》第九条倡导,坚持广泛参与、协商一致、循序渐进的原则,密切跟踪技术发展形势,开展风险评估和政策沟通,分享最佳操作实践。在此基础上,通过对话与合作,在充分尊重各国政策和实践差异性基础上,推动多利益攸关方热情参加,在国际人工智能治理领域形成广泛共识。
《布莱切利宣言》第五、六段申明,人工智能产生的许多风险本身就具有国际性,因此最好通过国际合作加以解决;酌情就共同原则和行为准则等方法开展合作,重申国际合作应努力让广泛的合作伙伴酌情参与进来,强调所有参与者都可以在确保人工智能安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要一起努力。并在第八段强调,应对人工智能前沿风险的议程将侧重于建立和保持应对人工智能安全风险的全球共识。
《全球人工智能治理倡议》第十一条指出,增强发展中国家在人工智能全球治理中的代表性和发言权,开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距。
《布莱切利宣言》第六段指出,应帮助发展中国家加强人工智能能力建设,发挥人工智能的有利作用以支持可持续增长和缩小发展差距。
来自28个国家的政府代表,以及7个国际多边组织、超过80家学术科研机构、企业和公民组织出席了人工智能安全峰会。
包括中国、美国、英国、欧盟、新加坡、日本、韩国、澳大利亚、巴西、加拿大、智利、法国、德国、印度、印度尼西亚、爱尔兰、以色列、意大利、肯尼亚、沙特阿拉伯、荷兰、尼日利亚、菲律宾、卢旺达、西班牙、瑞士、土耳其、乌克兰、阿联酋在内的多个国家联署了《布莱切利宣言》。
该宣言强调了以人为本的AI发展理念,呼吁各国科研机构、企业等在AI设计、开发和使用的过程中,始终以人的福祉为出发点和落脚点,确保AI技术为人类带来实实在在的利益。
同时,《宣言》也警示了AI发展过程中可能带来的伤害,要求各方通过法规等手段,防范和化解相关风险。
1、人工智能应以安全的方式设计、开发、部署,做到以人为本、让人信服和负责任
四、宣言指出,人工智能的风险应对需要包容的国际合作,并强调了开发者的责任
2、国家、国际论坛、公司、学术界等所有参与者都可以在确保人工智能安全方面发挥作用
五、宣言指出,为促进更广泛的人工智能国际合作,将支持一个具有国际包容性的前沿人工智能安全科学研究网络
1、在合作的背景下,应对人工智能前沿风险的议程将侧重于:确定共同关注的风险,建立并保持对这些风险共识,制定基于各国国情的政策并酌情开展合作
2、建立一个用于政策制定和公益事业的国际人工智能前沿安全科学研究网络,以促进提供最佳的科学支持
3、继续开展包容性的全球对话,推动更广泛的国际讨论和人工智能前沿安全研究
人工智能(AI)带来了巨大的全球机遇:它有潜力改变和增强人类福祉、和平与繁荣。
为了所有人的利益,AI应该以安全、以人为本、可信赖和负责任的方式设计、开发、部署和使用。
因此,我们认识到,现在是一个独特的时刻,需要采取行动,申明安全发展人工智能的必要性,并以包容的方式在我们各国和全世界内利用人工智能的变革性机遇,造福于人类。
●公共服务,如卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候等领域,
●并认识到要解决保护人权、透明度和可解释性、公平性、问责制、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护等问题。
我们还注意到,AI系统操纵内容或生成欺骗性内容的能力可能带来不可预见的风险。
特别的安全风险出现在“前沿”的AI,即那些能够执行各种任务的高能力通用AI模型,包括:
●以及可能表现出与当今最先进模型相匹配或超过现有能力的相关特定狭窄定义的AI。
重大风险可能来自潜在的故意滥用,或与按照人类意图行事相关的控制问题。此类问题部分是人类尚未完全理解AI的这些能力,因此难以预测。
我们关切网络安全和生物技术等领域的此类风险,以及前沿AI系统可能放大虚假信息等风险的领域。这些AI模型最重要的能力可能会引起严重甚至灾难性的伤害,无论是故意还是无意的。
鉴于AI的快速和不确定的变化速度,以及在技术投资加速的背景下,我们申明,加深对这些潜在风险的理解,以及加深对应对这些风险的行动的理解,尤为紧迫。
在此过程中,我们认识到,各国应考虑采取有利于创新、适度的治理和监管方法,最大限度地发挥人工智能的效益,并考虑到人工智能的相关风险。
所有参与者都可以在确保AI安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要一起努力。我们注意到包容性AI和弥合数字鸿沟的重要性,重申国际合作应努力酌情让广泛的合作伙伴参与进来,并欢迎以发展为导向的方法和政策,以帮助发展中国家加强人工智能能力建设,并利用人工智能的赋能作用来支持可持续增长和缩小发展差距。
我们申明,虽然必须在整个AI生命周期考虑安全,但发展前沿AI能力的行为者,特别是那些异常强大和潜在有害的AI系统,对确保这些AI系统的安全负有特别重大的责任,包括通过安全检测系统、评估和其他适当措施。我们鼓励所有相关行为者就其衡量、监测和减轻AI潜在有害能力及其也许会出现的相关影响的计划,提供适当的透明度和问责制,特别是为避免滥用和控制问题以及其他风险的放大。
在我们的合作范围内,并为了给国家和国际两级的行动提供信息,我们应对前沿AI风险的议程将侧重于:
●识别共同关注的人工智能安全风险,建立对这些风险的共同科学和循证理解,并在能力逐步的提升的情况下,在更广泛的全球方法的背景下保持这种理解,以了解人工智能对我们社会的影响。
●根据这些风险,在各国制定各自的基于风险的政策,以确保安全,在适当的情况下进行合作,同时认识到我们的方法可能因国情和适用的法律框架而异。这包括,除了提高私人行为者开发前沿人工智能能力的透明度外,还包括适当的评估指标、安全测试工具,以及发展相关的公共部门能力和科学研究。
为推进这一议程,我们决心支持建立一个具有国际包容性的前沿AI安全科学研究网络,该网络包括和补充现有和新的多边、多边和双边合作,包括通过现有国际论坛和其他相关举措,促进为决策和公共利益提供最佳科学。
认识到AI的变革性积极潜力,并作为确保更广泛的AI国际合作的一部分,我们决心维持包容性的全球对话,让现有国际论坛和其他相关举措参与进来,并以开放的方式为更广泛的国际讨论做出贡献,并继续研究前沿AI安全问题,以确保可以负责任地利用技术的好处造福所有人。我们期待2024年再次会面。