博鱼2022年,随着OpenAI开发的生成式人工智能聊天机器人ChatGPT的发布,人工智能(AI)实现了代沟式的飞跃。
人工智能在国际上的日益普及可能会重塑全球力量平衡,并可能带来严重的地缘政治后果。
人工智能(AI)已存在数十年,但新的进步使该技术脱颖而出。专家表示,其的崛起可能会反映以前的技术革命,为全球经济增加价值数十亿美元的生产力,同时也带来了一系列新的风险,可能会颠覆全球地缘政治秩序和社会本身的性质。
管理这些风险至关重要,随着美国、欧盟(EU)等主要大国在监管这项技术方面采取越来越不同的方法,关于人工智能治理的全球辩论正在激烈进行。与此同时,人工智能的开发和部署继续以指数速度进行。
虽然没有单一的定义,但“人工智能”通常是指计算机执行传统上与人类能力相关的任务的能力。这个词的起源可以追溯到20世纪50年代,斯坦福大学计算机科学家John
McCarthy使用“人工智能”一词来描述“制造智能机器的科学和工程”。对McCarthy而言,智力的标准是在不断变化的环境中解决问题的能力。
自2022年以来,所谓的生成式人工智能工具的公开使用提高了该技术的知名度,如聊天机器人ChatGPT。生成式人工智能模型从大量训练数据中提取数据,根据特定提示生成统计上可能的结果。由此类模型支持的工具可生成类似人类的文本、图像、音频和其他内容。
人工智能的另一种常用形式是通用人工智能(AGI),或“强”人工智能,指的是能够像人类一样学习和应用知识的系统。然而,这些系统尚不存在,专家们对它们究竟需要什么意见不一。
研究人员研究人工智能已有八十年历史,数学家Alan Turing和John von Neumann被认为是该学科的创始人之一。自从教授基本计算机二进制代码以来的数十年里,软件企业已经使用人工智能来为下棋计算机和在线语言翻译器等工具提供支持。
在人工智能投资最多的国家,发展历来依赖公共资金。在许多国家,人工智能研究主要由政府资助,而美国数十年来依靠国防高级研究计划局(DARPA)和其他联邦机构。近年来,美国人工智能的发展很大程度上转向了私营部门,私营部门为此投入了数千亿美元。
2022年,美国总统拜登签署了《芯片和科学法案》,该法案将美国政府的支出重新集中在技术研发上。该法案将2800亿美元的联邦支出用于半导体,这是一种能够支持人工智能所需的大规模处理和数据存储能力的先进硬件。2023年1月,ChatGPT成为有史以来增长最快的消费者应用。
Eurasia Group总裁Ian Bremmer和Inflection AI首席执行官Mustafa Suleyman在《外交事务》杂志上写道,人工智能的到来“标志着一个大爆炸时刻,一场改变世界的技术革命的开始,这场革命将重塑政治、经济和社会。”
世界各地的企业和组织已经将人工智能工具应用到其产品中。Tesla等无人驾驶汽车制造商多年来一直在使用人工智能,依赖算法模型进行某些交易操作的投资银行,以及使用算法投放定向广告的技术企业也是如此。但在ChatGPT出现后,即使是不太注重技术的企业也开始转向生成式人工智能工具来实现客户服务等系统的自动化。在McKinsey于2023年4月进行的一项调查中,全球三分之一的企业声称正在以某种方式使用人工智能。
人工智能的广泛应用可以加速全面的技术创新。半导体产业已经蓬勃发展;在全球对半导体需求飙升的情况下,生产大部分人工智能芯片的Nvidia的股价在2023年增长了两倍多,总估值超过1万亿美元。
与历史上许多其他大规模技术变革一样,人工智能可能导致生产力提高和失业之间的权衡。但与之前的突破不同,这些突破主要消除了低技能的工作,生成式人工智能可能会使白领工作面临风险,并且可能比以往任何时候都更快地取代许多行业的工作。经济合作与发展组织(OECD)称,全球四分之一的工作岗位极有可能被人工智能自动化取代。Pew Research Center的一项研究发现,这些工作往往依赖于生成式人工智能能够以与人类工人类似的质量水平完成的任务,比如信息收集和数据分析。“高度暴露”被人工智能取代的工作人员包括会计师、网络开发人员、营销专业人员和技术作家。
经合组织(OECD)表示,生成式人工智能的兴起也引发了人们对不平等的担忧,因为技术含量最高的工作似乎是最安全的,不会受到与该技术相关的干扰博鱼在线官网。但其他分析表明,低技能工人可以通过利用人工智能工具提高生产力而受益:麻省理工学院(MIT)和斯坦福大学的研究人员在2023年进行的一项研究发现,在两组人员开始使用人工智能后,经验不足的呼叫中心操作员的工作效率提高了一倍。
人工智能与环境的关系既预示着危险,也预示着希望博鱼在线官网。虽然一些专家认为,生成式人工智能可以促进应对气候变化的突破,但也有人对这项技术的巨大碳足迹提出了警告。其巨大的处理能力需要能源密集型的数据中心;这些系统已经产生了相当于航空业的温室气体排放量,而且人工智能的能源消耗只会随着未来的进步而增加。
人工智能倡导者认为,开发商可以使用可再生能源来减少部分排放。Apple、Google和Meta等科技企业使用自产的可再生能源运行数据中心,并且还购买所谓的碳信用额来抵消排放避免任何依赖化石燃料的能源使用。
许多专家认为,人工智能的发展是美国和中国之间争夺技术主导地位的斗争。他们认为,这场竞争的获胜者将获得经济和地缘政治优势。到目前为止,美国的政策制定者似乎都是在这个框架下运作的。2022年,拜登以国家安全为由,禁止向中国出口最强大的半导体,并鼓励美国盟友也这样做。一年后,拜登提议彻底禁止美国对中国人工智能领域的多项投资,商务部宣布了一系列新的限制措施,旨在遏制中国“人工智能的突破”。大多数专家认为,迄今为止,美国在人工智能发展方面已经超过了中国,但中国将很快缩小差距。
人工智能还可能对美国国家安全产生更直接的影响:美国国防部预计,这项技术将通过增强自主武器权力和改善战略分析,改变“战争的本质”。一些专家已经推动禁止自主致命武器。在乌克兰与俄罗斯的战争中,基辅正在部署自主操作的人工智能无人机,这是首次在一场重大冲突中使用这种技术。交战各方也可能很快依赖人工智能系统来加速战场决策或自动攻击敌方基础设施。一些专家担心这些能力可能会增加使用核武器的可能性。
此外,人工智能可能会加剧虚假信息和宣传的双重威胁,随着世界即将迎来比以往任何时候都多的人投票的一年,这一问题变得尤为重要:70多个国家(占全球人口的一半)将在2024年举行全国选举。生成式人工智能工具正在使深度造假变得更容易博鱼在线官网,而且这项技术已经出现在全球各地的竞选活动中。专家们还指出,不良行为者可能会利用人工智能创建复杂的网络钓鱼尝试,这些钓鱼尝试是根据目标的利益量身定制的,以获取对选举系统的访问权限。从历史上看,网络钓鱼一直是潜在选举黑客进入这些系统的一种方式。据美国司法部称,俄罗斯曾使用该方法干预2016年美国大选。
一些专家表示,称人工智能为“智能”尚不准确,因为其不涉及人类水平的推理。专家认为,其并没有创造新的知识,而是将现有的信息聚合起来,并以一种易于理解的方式呈现出来。
但这种情况可能会改变。ChatGPT背后的OpenAI是一家非营利组织,致力于确保AGI造福“整个人类”,其联合创始人Sam Altman表示停止AGI的发展是“不可能或不可取的”;2023年,Google DeepMind首席执行官Demis Hassabis表示AGI可能会在五年内到来。包括CFR高级研究员Sebastian Mallaby在内的一些专家认为,人工智能在某些任务上已经超越了人类的智能水平。2020年,DeepMind利用人工智能解决了蛋白质折叠问题,这在当时被广泛认为是最复杂、未解之谜之一。
许多人工智能专家似乎都这么认为。2023年5月,数百名人工智能领导者,包括Anthropic、Google DeepMind和OpenAI的首席执行官,签署了一封简短的信,其中写道:“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一样,成为全球的优先事项。”
关于灭绝如何发生的一个流行理论假设,优化某项任务的指令可能会导致超级智能人工智能通过转移人类生存所需的资源来实现其目标。例如,负责减少海洋中有害藻类数量的人工智能,可能会吸收大气中的氧气,导致人类窒息。虽然许多人工智能研究人员认为这一理论是危言耸听,但其他人表示,这个例子准确地说明了强大的人工智能系统在执行其指令的过程中博鱼在线官网,可能造成巨大的、无意的伤害的风险。
这场辩论的怀疑论者认为,关注如此遥远的存在风险会混淆更直接的威胁,例如独裁监视或有偏见的数据集。世界各地的政府和企业都在扩展面部识别技术,一些分析人士担心博鱼在线官网,北京方面正在利用人工智能加强。当人工智能训练数据包含过多或过少的元素时,就会出现另一个风险。根据此类数据训练的工具可能会产生偏差的结果。这可能会加剧对边缘群体的歧视,例如当人工智能驱动的租户筛选算法根据有偏见的数据进行训练时,会不成比例地拒绝向有色人种提供住房。生成式人工智能工具还可以促进混乱的公共话语——“幻觉”聊天机器人将虚假信息呈现为真实的信息,或者用可疑的人工智能生成的结果污染搜索引擎。
几乎所有政策制定者、民间社会领袖、学者、独立专家和行业领袖都同意应该治理人工智能,但对于如何治理,却意见不一。在国际上,各国政府正在采取不同的方法。
美国在2023年加强了对人工智能的管理。拜登政府继其2022年的《人工智能权利法案》之后,宣布了一项承诺十五家领先技术企业自愿采用人工智能安全共同标准[PDF],包括提供其前沿模型供政府审查。2023年10月,拜登发布了一项内容广泛的行政命令,旨在为整个行政部门安全使用人工智能制定统一的框架。一个月后,两党参议员小组提出了管理这项技术的立法。
欧盟立法者正在推进立法,引入透明度要求,并限制人工智能用于监控目的。然而,一些欧盟领导人对该法律可能阻碍欧洲创新表示担忧,并对如何执行该法律提出疑问。
一些政府已寻求在国际层面上合作监管人工智能。在2023年5月的七国集团(G7)峰会上,该集团启动了所谓的广岛进程,以制定人工智能治理的共同标准。2023年10月,联合国成立了人工智能咨询委员会,其中包括美国和中国代表,以协调全球人工智能治理。接下来的一个月,28个国家的政府参加了在英国举行的首届人工智能安全峰会。包括美国和中国特使在内的代表签署了一份联合声明,警告人工智能可能造成“灾难性”伤害,并决心共同努力“确保以人为本、值得信赖和负责任的人工智能”。中国还宣布了自己在“一带一路”倡议国家的人工智能全球治理努力。
CFR高级研究员Kat Duffy表示,人工智能的复杂性使得这项技术不太可能受任何一套原则的约束。提案涵盖了从全面自我监管,到各种类型的公共政策护栏等多种潜在监督级别的政策选择。
一些分析人士承认,人工智能的风险会带来不稳定的后果,但其认为这项技术的发展应该继续进行。其表示,监管机构应该对计算能力或计算能力加以限制,因为在过去十年中,计算机的计算能力增长了50亿倍,允许模型在响应人类提示时整合更多的训练数据。其他人则表示,治理应该关注眼前的问题,比如提高公众对人工智能的认识,创建道德的人工智能系统,包括防止歧视、错误信息和监视。
一些专家呼吁限制开源模型,这可能会增加对技术的访问,包括不良行为者。许多国家安全专家和领先的人工智能企业都支持这样的规定。然而,一些观察人士警告称,广泛的限制可能会导致最大的人工智能企业在成本高昂的行业中巩固自己的实力,从而减少竞争和创新。与此同时,还有建议建立一个全球框架来管理人工智能的军事用途;其中一种方法将效仿管理核技术的国际原子能机构。
中美关系对人工智能治理的影响很大:随着北京追求一项旨在到2030年使中国成为“人工智能理论、技术和应用”的全球领导者的国家战略,华盛顿的政策制定者正在努力为人工智能发展设置护栏,同时又不损害美国的技术优势。
与此同时,人工智能技术正在快速发展。自2012年以来,计算能力每3、4个月翻一番,人工智能科学家预计,到2025年,模型的计算量将增加一百倍。
在缺乏强有力的全球治理的情况下,控制人工智能发展的企业正在行使通常只属于民族国家的权力,开创了一个技术极世界秩序。这些企业已经成为“自己的地缘政治参与者”,因此需要参与任何全球规则的设计。
人工智能的变革潜力意味着风险很高。如果有适当的保障措施,人工智能系统可以促进科学发现,治愈致命疾病,抵御气候变化的最坏影响,并开创一个全球经济繁荣的时代。