全球AI竞赛:美国能否赢得AI霸权



全球AI竞赛:美国能否赢得AI霸权




导语



在当今科技迅猛发展的时代,人工智能(AI)已成为全球竞争的核心领域,尤其在中美两国之间的科技竞赛中,AI的地位愈发凸显。本文将深入探讨美国在即将到来的特朗普政府下,如何在AI领域保持领先优势,以及国会在这一过程中可能扮演的角色和带来的潜在风险。


首先,文章指出,随着AI技术的飞速发展,美国面临着来自中国的强劲竞争。特朗普政府上任后,尽管宣称要以“轻触”监管促进技术创新,但实际上其政策立场却显得矛盾。一方面,特朗普将AI技术视为国家“超级力量”,强调其在国际竞争中的战略重要性;另一方面,他又承诺废除拜登政府时期制定的全面AI监管框架,试图通过减少监管壁垒来加速技术发展。然而,这种政策走向是否能够真正帮助美国在全球AI竞赛中保持领先,仍需深入分析。


文章进一步指出,国会在特朗普政府过渡期间悄然推进的AI监管提案,可能对美国的AI创新生态造成深远影响。尽管对AI的潜在风险,如算法偏见和“超级智能”失控等问题引发了广泛关注,但过度的立法干预可能会抑制美国科技企业的创新活力。尤其是欧盟通过的《通用数据保护条例》(GDPR)和拟议中的《欧洲AI法案》(AIA)已经证明,过度的监管不仅增加了企业的合规成本,还可能导致技术人才和资本流向监管更为宽松的地区,如美国和亚洲其他国家。


美国通过灵活的政策调整,试图在保持技术领先的同时,避免因过度监管而丧失竞争优势。文章也指出,美国在AI领域依然具备显著优势,尤其是在私营部门的创新能力和风险投资的支持下。美国的科技巨头,如OpenAI、Anthropic、谷歌和微软,持续引领着AI技术的前沿研究,并在生成式AI和先进的自动化系统方面取得了突破性的进展。这些企业不仅推动了AI技术在商业领域的广泛应用,也为国家安全提供了强有力的技术支持。


尽管如此,文章对特朗普政府可能采取的政策持谨慎态度。特朗普的个人风格和政策不确定性,可能导致AI政策的摇摆不定,进而影响美国在全球AI竞赛中的稳定性和连续性。此外,国会在推动AI监管立法时,若未能充分考虑科技发展的动态性和复杂性,可能会造成政策的滞后和不匹配,进一步削弱美国在全球科技领域的竞争力。


从政策建议的角度来看,文章强调,美国应继续保持对AI研发的高投入和对科技人才的吸引,同时在监管方面采取灵活和有针对性的措施,避免一刀切的政策干预。通过建立公私合作的框架,如前沿模型论坛(Frontier Model Forum),可以在促进技术创新的同时,确保AI发展的安全性和伦理性。此外,扩大签证项目,吸引和留住国际顶尖AI人才,也是美国保持技术领先的重要策略。


综上,本文为我们提供了一个全面而深刻的视角,审视了美国在全球AI竞赛中的优势与挑战。本文不仅揭示了中美在AI领域的激烈竞争,也提醒我们在追求技术领先的过程中,必须平衡创新与监管。对于政策制定者而言,如何在促进AI发展的同时,保障技术应用的安全性和伦理性,将是决定美国能否在全球AI竞赛中胜出的关键所在。


图片


随着特朗普政府即将上任,美国国会在“跛脚鸭”会期内悄然推动一些提案,这些提案可能对人工智能(AI)产生深远的影响。2024年,国会一直在讨论是否以及如何监管人工智能,尤其是由于对潜在风险的担忧而推动这些讨论,这些风险从招聘系统中的偏见到对“超级智能”失控的恐惧不一而足。事实上,最近获得诺贝尔物理学奖的Geoffrey Hinton,通常被誉为“人工智能之父”,也警告说,随着人工智能模型被广泛应用到决策系统中,超越人类智力并失控的风险日益增加。埃隆·马斯克曾表示,人工智能可能比核武器更危险。


尽管这些风险尚属推测,但人工智能的指数级增长无疑为新的AI法律提案提供了支持。在短短五年内,生成性AI模型的参数从15亿个增至超过1000亿个,这一增长展示了人工智能的能力,不仅限于词语预测或总结,还能够执行推理任务。增长速度甚至令开发者们也感到惊讶。这种指数增长可能预示着,在未来两年,技术与人类之间的力量平衡将发生怎样的变化?


目前国会可能认为它面临着通过新AI法律的机会窗口正在关闭,因为预计特朗普政府的立场会更加不可预测。特朗普当选总统时曾强调,人工智能技术是一种“超级强大”的力量,具有“令人担忧”的能力,可能会对AI监管持开放态度。然而,他也承诺对科技监管采取更宽松的方式,表示要废除拜登总统发布的迄今为止最全面的人工智能监督行政命令,并强调人工智能是“超越中国”的工具。


尽管人工智能的发展带来了一些风险,但草率立法并非明智之举。即使特朗普政府废除了拜登的行政命令,现有的法律框架已能解决许多即时关切,过度监管的潜在风险则可能威胁美国的经济创新和国家安全领导地位,特别是在与中国的全球竞争背景下。


强大基础,风险过度扩张


尽管一些立法者和AI专家呼吁出台新的人工智能法律,但最新证据却削弱了即将到来的AI末日的论调。所谓的“人工智能扩展法则”(AI scaling laws)——即实验室在过去五年里依赖的那些提升模型能力的方法和预期——已开始显现出回报递减的迹象,意味着模型的进步速度比以前慢了许多。我们不仅远未接近意识的边缘,且很可能将继续停留在狭窄、任务特定的AI上——如下棋、推荐产品或做日常决策——这些模型无法独立形成进行大规模自主(甚至恶意)行动所需的复杂抽象目标。


此外,美国已经有了一个强大的法律和监管框架,能够应对许多当前的AI关切。例如,平等就业机会委员会(EEOC)可以根据《民权法》第七条调查歧视性招聘算法。涉及AI输出的知识产权争议可以通过1976年的《版权法》来解决,该法案已经适应了技术发展的需要。类似地,《公平信用报告法》为金融系统中的偏见决策提供了救济途径。近期纽约市在自动化招聘系统中要求进行偏见审计的创新,展示了现有原则如何应用于AI,而不必等待联邦层面的行动。


尽管已有强大基础,但近期美国的监管提案仍突显了过度扩张的危险。拜登政府2023年的行政命令要求进行“红队演习”(red teaming),以识别AI模型的漏洞,并要求对网络安全和开发实践进行广泛报告。2024年商务部的一项规则要求企业进行详细披露,可能会泄露专有技术并削弱竞争优势。


2024年8月,美国司法部起诉了RealPage,这家公司使用软件帮助房东通过分析实时市场数据做出数据驱动的定价决策。批评者反驳称,司法部的诉讼是由于误解了算法工具的运作方式,这在尝试监管复杂且迅速发展的技术时常常成为一个难题。


事实上,欧盟(EU)也提供了一个警示的案例。通用数据保护条例(GDPR)增加了合规成本,并对小型企业产生了不成比例的影响。研究表明,GDPR合规导致企业利润下降了8%,并抑制了增长。同样,欧盟的《人工智能法案》(AIA)旨在为全球人工智能安全设立高标准,但却引入了繁重的风险评估和透明度要求。据估计,每家公司合规的成本高达40万欧元(约合42.3万美元),预计将导致欧盟在未来五年内减少20%的AI投资。与其促进创新,欧盟的监管优先策略可能会打击投资,迫使人才和资本流向美国和亚洲等监管更为宽松的市场。


增加的报告和合规成本往往不会影响大科技公司,而会将较小的初创企业挤压出去,无论是因为负担不起合规条款,还是因为这些成本把本该投入研发的资源转移了。这些障碍也可能阻碍新公司进入市场,从而缩小AI开发者的多样性,限制突破性的创新。


科技气候及其结果是显而易见的。2023年,欧洲初创企业获得的风险资本不到美国公司的半数。美国的科技初创公司通常可以获得更多的资金和资源,使它们能够更快地开发和规模化创新技术。


在人工智能领域,具体来说,美国吸引了625亿欧元(约合660亿美元)的私人AI投资,而欧盟和英国的投资总和仅为90亿欧元(约合95亿美元)。大部分大型语言模型都源自美国,欧洲几乎没有贡献。


美国继续以更高的薪资吸引欧洲的科技人才——2023年6月的一项研究显示,德国或法国的科技薪资分别是美国相同职位薪资的48%和37%。这些法规和投资带来的后果是显而易见的:美国排名前七的科技公司规模是欧洲七大公司的20倍,收入是其10倍。


人工智能领导地位作为地缘政治的必要


在人工智能领域,研究和开发的灵活性尤为重要。人工智能处于中美地缘政治竞争的核心,双方都认识到其对经济增长和军事主导地位的转型潜力。


美国在人工智能发展方面仍保持着显著的领先地位。欧盟2023年4月的一份报告显示,73%的大型语言模型在美国开发,而中国仅占15%。斯坦福大学的《全球活力工具》显示,2023年美国吸引的与AI相关的私人投资远远超过中国(672亿美元对78亿美元)。在AI研究生产力方面,中国虽然在2010年赶上了美国,但根据《自然》杂志的文章,近年来中国的进展略微落后。


然而,这种领先地位可能不会持续。中国在2017年发布的《新一代人工智能发展规划》勾画了到2030年实现AI霸主地位的雄心。通过大规模的国家投资和军民融合战略,中国正迅速将商业部门的进步融入到军事行动中。像自动化无人机、监控系统和AI驱动的决策工具等技术,展示了民用AI发展如何直接推动军事创新。


相比之下,美国历来依赖私营部门的力量推动技术创新,许多突破,如航空航天、半导体和计算机领域的创新,通常首先起源于商业行业,然后再被适应于国家安全目的。人工智能也不例外。像OpenAI、Anthropic、Google和Microsoft等公司在尖端研究领域处于领先地位,这些创新不仅塑造了民用经济,还有可能在军事应用方面带来变革,例如预测分析、自动化系统和先进的网络安全防御。


迈向全球竞争力的AI政策


美国应通过保持灵活的监管方式来增强其优势,在促进创新的同时,通过有针对性的灵活措施应对风险。例如,由领先的私营部门AI开发者发起的“前沿模型论坛”(Frontier Model Forum)等协作框架,展示了如何在不抑制进步的情况下,由行业主导来应对共同风险。这些举措表明,创新与问责并非互相排斥,私营部门可以在制定负责任的人工智能实践方面发挥主导作用。批评者可能认为自我监管缺乏强制执行力,但它为前进提供了一条务实的道路,尤其是在像人工智能这样充满活力的行业中。


保留并培养人才也是这场竞争中的决定性因素。中国通过“千人计划”和其他举措积极招募顶尖AI研究人员,同时培养国内人才储备。美国可以通过扩大签证计划来吸引和留住国际研究人员,并在国内STEM教育上大力投资,以建立一个强大的AI劳动力。确保顶尖的AI人才选择在美国创新,对于保持该领域的领导地位至关重要。


同时,国会也不应忽视在风险明确且紧迫的领域进行有针对性立法的潜力。例如,提议中的《反抗法案》(Defiance Act)旨在规范有害的、未经同意的深度伪造技术应用,展示了一种专注于解决切实威胁的做法,而不至于对整个AI生态系统造成过度负担。然而,这也凸显了立法的挑战,因为它可能会影响到受保护的言论形式,并且随着人工智能技术的快速发展,难以证明“非自愿”的性质以及如何适应技术的变化。


在此平衡中找到正确的切入点至关重要。立法不当可能会打击投资,抑制初创公司,并削弱美国在AI领域的领导地位。通过灵活的政策促进创新并保留顶尖人才,美国能够在全球人工智能竞赛中保持领先地位,同时确保问责和伦理问题。



来源:https://www.brookings.edu/articles/the-global-ai-race-will-us-innovation-lead-or-lag/




文章略有删改,仅代表作者观点,供读者参考,与本平台立场无关。如有侵权,请联系删除。