首页 > 研究成果 > 时事评论

刘平丨人工智能安全:新时代中美关系的必答题

2024.05.17

作为当前最受关注的新兴科技,人工智能这个人类创造的新事物最终对人类是福是祸,取决于人类的抉择,现阶段则很大程度上取决于中美两国的抉择。

作者:刘平,国观智库防务安全研究中心主任

人类跨过2023年这个人工智能(AI)元年后,AI的发展不断加速,具备涌现能力和泛化能力的大模型俨然成为2024年最引人注目的人工智能词汇。作为当前最受关注的新兴科技,人工智能这个人类创造的新事物最终对人类是福是祸,取决于人类的抉择,现阶段则很大程度上取决于中美两国的抉择。中美秉持为人类共同福祉努力的答题精神,遵循符合人工智能发展规律的答题思路,才可能解答好人工智能安全这个事关人类未来的大问题。

1715938545924397.jpg


日前,中美举行人工智能政府间对话首次会议,是一个好的起步,也是中美两国在新时代寻找正确相处之道的有益尝试。为落实中美元首旧金山会晤共识,经双方商定,中美于5月14日在瑞士日内瓦举行中美人工智能政府间对话首次会议,就人工智能科技风险、全球治理以及各自关切的其它问题进行交流。中美双方介绍了各自对人工智能技术风险的看法和治理举措、推动人工智能赋能经济社会发展采取的措施。这次据称是深入、专业、建设性的对话,恰逢其时,也有益于当前两国正在形成的对话气氛的关系。

在人工智能对社会的影响力达到了前所未有的重要时刻,中美则是人工智能领域的两个领先大国。据美国斯坦福大学人本AI研究所4月份发布的《2024年人工智能指数报告》,中美为全球顶级人工智能模型的主要来源国,2023年美国贡献了61个著名的 AI 模型,中国为15个。

领先大国首先是自有领先大国的道义责任,比如在最前沿的位置去努力确保技术进步和技术的负责任使用。良性的竞争有助于激发活力和创新,但美国在人工智能领域对华打压限制则会增加技术发展的成本,影响两国关系的健康稳定发展。

一、人工智能风险本质上是国际性的

人工智能带来了巨大的全球机遇,它有潜力提升和促进人类福祉、和平与繁荣。而大模型的应用将进一步推动AI发展,比如推动技术突破、提升产业竞争力、拓展应用边界、加速产业化进程、带动相关产业发展、促进人才培养、提高行业标准和改变行业生态等等。

与机会孪生而来的,则是重大风险,包括在日常生活领域。而特殊的安全风险则出现在AI“前沿”--强人工智能领域,即那些可以执行各种任务的高功能通用人工智能模型,以及可能表现出造成伤害能力的相关特定狭义人工智能,如军用人工智能。这些模型与当今最先进的模型中的能力相匹配或超过。潜在的故意误用或与人类意图保持一致的意外控制问题可能会产生重大风险,会造成严重甚至灾难性的伤害。

鉴于人工智能的快速和不确定的变化速度,以及技术投资加速,国际社会开始努力理解和管控人工智能带来的风险。在2023年11月于英国召开的首届人工智能安全峰会上,包括中国、美国在内的与会28国家及国际组织一致认为,人工智能带来的许多风险本质上是国际性的,因此最好通过国际合作来解决。

微信图片_20240517173445.jpg


与会各方在《布莱奇利宣言》中称,决心以包容的方式共同努力,确保以人为本、值得信赖和负责任的人工智能是安全的,并通过现有的国际论坛和其他相关倡议支持所有人的利益,促进合作,以应对人工智能带来的广泛风险。该宣言还表示,在共同原则和行为守则等办法方面,酌情开展合作具有现实意义。对于最有可能发现的与前沿人工智能有关的具体风险,各方决心加强和维持合作,并扩大与更多国家的合作。

在非军事领域,中国、美国、英国等28国的努力,在2024年促成了联合国通过首个全球性的人工智能决议。由美国发起,中国等122个共同提案国支持,2024年3月,联合国大会全票投票通过了《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》的决议,就非军事领域的人工智能的安全问题提出解决思路,强调人工智能系统的生命周期包括前期设计、设计、开发、评价、测试、部署、使用、销售、采购、运行和淘汰等阶段——必须以人为本、可靠、可解释、符合道德、具有包容性,充分尊重、促进和保护人权和国际法,保护隐私、面向可持续发展和负责任。

这份决议显示,联合国所有成员国认识到,在当前这个特殊重要的时刻,需要采取行动确保人工智能安全发展。决议指出,不当或恶意地设计、开发、部署和使用人工智能系统——例如在没有适当保障措施或不符合国际法的情况下——构成风险。决议强调,要加大在制定和实施有效保障措施方面的投入,其中包括实体安全、人工智能系统安全以及人工智能系统整个生命周期内的风险管控。

决议列出了7个类型的风险,包括:不利于从经济、社会和环境等方面实现可持续发展;扩大国家之间和国家内部的数字鸿沟;强化结构性不平等和偏见;导致歧视;有损于信息的完整性和强调,获取信息的途径;削弱对人权和基本自由的保护、促进和享有,其中包括个人隐私不受非法或任意干涉的权利;增加发生事故的潜在风险和来自恶意行为者的多重威胁。这些风险可作为中美及国际社会在维护人工智能安全时的参照系。

在军事领域,人工智能使战略威慑多了一张新的王牌。人工智能技术对威慑战略的影响将是巨大的和两面性的。一方面,AI会促使对抗双方都担心对手能够准确预测本方的敌对行动,因此都不会轻举妄动,似乎强化了威慑效果,促进了战略稳定。但另一方面,AI或许也会促使对抗双方产生盲目自信和冒险倾向,从而造成冲突风险在无意中升级。特别是,如果出现人不在回路中的情况,而且AI违背了“阿莫西夫机器人三法则”,那就可能造成不可控的全人类伦理问题,产生灾难性的后果。

常规作战方面,在可以预见的未来,AI可能从根本上改变常规作战方式,军事行动的筹划和实施方式,以及敌我双方兵力兵器、基础设施、地形地貌等信息的收集和使用方式。美国日前高调展示首个AI战斗机。5月初,美军空军部长肯德尔,试驾了可变稳定性飞行模拟器测试飞机(VISTA),模拟了一对一的空战,在全程一小时的飞行中,所有飞行动作都由AI自主完成。试驾后,肯德尔甚至宣称,其愿意信任这个AI,让它来决定在战争中是否发射核武器。这些当然是美国设想的与中国在军事领域竞争的一部分。2024年年初,美国国防部副助理部长霍洛维茨再次强调,美军必须构建“高精密、高规模”的AI武器系统,以回应中国挑战。

二、中美如何合答人工智能安全考题

中美关系仍然处在低谷。但5月上旬中美达成一致致力减排甲烷的新共识,并计划在2024年11月于阿塞拜疆举行的第29届联合国气候变化大会期间,举办第二届“甲烷和非二氧化碳温室气体峰会”。这显示,中美两国能够在拥有共同责任和利益的国际政策领域合作,而这样的合作一旦进入实质性阶段,将对两国今后的合作持续性产生积极的影响。

气候变化是人类面临的共同的生死存亡的问题,人工智能安全也是如此。在这个事关人类前途命运的考题上,中美也应如在气候变化问题上一样,与国际社一道,共同答题。

答题精神上,首先应是秉持正确的大国相处之道。相互尊重、和平共处、合作共赢,这既是从50年中美建交关系历程中提炼出的经验,也是历史上大国冲突带来的启示,应该是中美共同努力的方向。美国应中国一道,共同树立正确认知。中国始终致力于构建稳定、健康、可持续的中美关系,两国要做伙伴,相互尊重、和平共处。

日前,中国同法国发表关于人工智能和全球治理的联合声明。双方强调,两国充分致力于促进安全、可靠和可信的AI系统,坚持“智能向善(AI for good)”的宗旨,通过全面和包容性的对话,挖掘AI的潜力,降低其风险。双方还将依托联合国层面开展的工作,致力于加强人工智能治理的国际合作以及各人工智能治理框架和倡议之间的互操作性。中美后续的政府间关于人工智能安全的对话,也可以从这得到启发。

答题思路上,似可从大模型时代人工智能的发展规律中寻找。大模型,是一种包含超大规模参数的深度学习神经网络模型,建模方式主要是卷积神经网络、循环神经网络或其他变种网络,学习训练方式通常为监督学习,通过大量标注数据来训练和迭代优化。大模型的典型特征主要有:参数规模大,比如GPT-4的参数达16000多亿个,参数是模型中用于学习和适应训练数据的可调整的权重和偏置;数据需求量大,大模型训练需要大量数据,以实现参数规模的优势,GPT-3的令牌(Token,元语义单位)数达3000亿个;计算资源需求大,大模型训练需要数百甚至上千个GPU及大量时间。此外,大模型还有处理多模态任务的优势。

可以说,大模型是大数据、神经网络算法、芯片的结合所带来革命性的变化。现在,在寻找癌症治理方法、发现新材料、绘制生物多样性,到寻找隐藏在图像背景中的大量微弱星系,大模型正展示着人类所前所未见的能力。人工智能安全,也可从大模型时代的算法安全、算力安全和“算数”安全等方面确保这个革命性的变化是安全、可信赖和可持续的。

首先是算法安全方面。我们生活在算法的时代。当今,文明社会的每一个角落都存在算法,日常生活的每分每秒也都和算法相关。购物网站用算法来为你推荐商品,点评网站用算法来帮你选择餐厅,导航软件用算法来帮你规划最佳路线,公司用算法来筛选求职者。作为一系列告诉计算机该做什么的指令,如果算法突然停止运转,那么就是现代人类文明的世界末日。更令人担忧的是,部分算法训练出来的AI系统已经学会欺骗人类,一些政府官员已经发出警告:管控AI及其控制的武器系统的时间无多。

1715938650522385.jpg


中美回答人工智能安全的考题,在算法安全方面,负面清单上,可以有不开发针对对方的特定算法、不在开源算法中隐埋类似“末日漏洞”的陷阱、不攻击对方医疗、交通、金融、通信等基础设施领域的AI系统等。据报道,美国商务部正考虑推动一项新的监管措施,将限制或闭源AI模型的出口,以保护美国的AI模型免受中国和俄罗斯的影响,初步计划将在ChatGPT等AI模型周围设置防护栏。此类举动显然无助于算法安全。白名单方面,可以包括共同应对应用AI生产错误信息、虚假信息,发表歧视和偏见观点等领域。

其次是算力安全方面。业界有句话,“AI的尽头是算力,而算力的尽头是电力”。OpenAI首席执行官奥特曼、特斯拉首席执行官都就AI令人吃惊的算力需求发出预警。算力是人工智能对数据或信息的处理能力,背后则是数据中心、智算中心为代表的算力基础设施,算力基础设施的背后则是电力。2024年年初,国际能源署(IEA)发布《电力2024:分析及2026年展望》报告指出,到2026年,数据中心、人工智能和加密货币这三个领域对全球电力需求的贡献可能会翻倍,引发了对全球能源储备的巨大影响。

报告称,人工智能在大型现有应用中的广泛采用可能会极大地增加电力消耗。谷歌搜索消耗0.3千瓦时电力,而ChatGPT的典型查询则消耗2.9千瓦时电力。IEA估计,如果谷歌在其所有搜索中大规模采用生成式人工智能,考虑到每天进行的90亿次搜索,这将需要额外消耗10太瓦时(TWh)的电力。相当于当前瑞典全国一个星期的用电量。

1715938674706711.jpg


中美回答人工智能安全的考题,在算力安全方面,负面清单上,可以有不攻击支撑对方人工智能运行的特定电力设施等,白名单可以包括共同探索降低能耗技术、支持在人工智能领域优先使用可再生能源等。美国搞“小院高墙”显然不符合合作应对算力安全的精神。

第三是算数安全方面。数据是对真实世界中的对象、事件和概念的某一属性的抽象表示。计算机系统出现后,特别是数字化变革后,数据成为继物质、能源之后的第三大战略资产。数据也是AI系统开发和运行的根本。人工智能需要海量的特殊数据,这些数据是经过清洗和标注的可用于训练算法的数据,可以叫做“算数”。

这些“算数”可以看做AI模型的燃料。各国已经在制度层面将数据列为生产要素。2019年10月出台的《中共中央关于坚持和完善中国特色社会主义制度、推进国家治理体系和治理能力现代化若干重大问题的决定》指出,“健全劳动、资本、土地、知识、技术、管理、数据等生产要素由市场评价贡献、按贡献决定报酬的机制”,首次将数据作为与劳动、资本、土地、知识、技术、管理并列的生产要素,从制度层面确立了数据作为一种新的生产要素的重要地位。公平、包容、负责和有效的数据治理,数据生成、获取和基础设施的改善,以及数字公共产品的使用,对于利用安全、可靠和值得信赖的人工智能系统的潜力促进可持续发展至关重要。

1715938695128077.jpg

中美回答人工智能安全的考题,在“算数”安全方面,负面清单可以有不攻击对方的数据中心、不在人工智能系统中使用带种族歧视和偏见方面的数据等。白名单方面,目前中国已经对美国展示了开放的心态。4月份,中国汽车工业协会与国家计算机网络应急技术处理协调中心联合公布了一批符合汽车数据安全四项标准的新能源汽车名单,这些标准主要包括车外人脸信息的匿名化处理、默认不收集座舱数据、座舱数据车内处理以及处理个人信息的显著告知等,特斯拉成为了唯一一家符合这些合规要求的外资企业。这为这家美国企业在中国推出智能驾驶服务扫清了障碍。而美国却以Tiktok的数据安全等原因,强制抖音剥离Tiktok,这种猜忌和焦虑心态使不得。中美两国应彼此成就,成为AI领域创新的引擎,成为人工智能安全的棋手。


时事评论

刘平丨人工智能安全:新时代中美关系的必答题

活动回顾