今天,美国白宫科技政策办公室(OSTP)在其官网公开了美国各界就“人工智能行动计划”提交的全部书面意见。
OSTP2月6日发布了《关于编制人工智能行动计划的征求意见书》,面向所有利益相关方征求意见。根据特朗普第14179号行政令,《人工智能行动计划》目标是强化美国AI领先地位、避免繁琐监管阻碍AI创新,是一个要取代拜登AI行政令的关键政策文件。意见征集期在3月15日结束。七周的时间内,美国AI政策界和产业界积极提交意见,但OSTP并未公开,只有OpenAI、Anthropic等企业和美国企业研究所等几个智库主动公开了自己的意见。在“OpenAI建言美国政府: DeepSeek是第二个华为,美国应联合他国抵制”,以及“美国智库和科技界就对华AI竞争的看法和建议”两篇文章中,我曾做过比较详细的介绍。
这次,OSTP公开了所收到的全部意见,总数达到了惊人的10068份。正像OSTP主任Michael Kratsios所说,如此海量的公众反馈,足见美国各界对这份重磅政策文件的高度期待。我预感在Kratsios的领导下,这个AI行动计划应该还是会更强调怎么激活美国的创新、让美国AI发展得更快。上周听了他在外交关系委员会的演讲,感觉其思路还是非常清楚:1、更好地集体分配公共研发资金,把钱用在真正关键的科研方向;2、制定合理、支持创新的监管制度,既保障安全,又不给创新设不必要的障碍;3、政府主动采用美国企业打造的优秀产品和工具,并为它们的出口扫清道路,让世界用上“美国制造”的先进技术。
在这一万多份意见中,我最关注几家重量级企业的反馈。除了OpenAI、Anthropic两家AI新贵,美国传统的科技七巨头,只有苹果、英伟达、特斯拉三家偏硬件的企业没提交意见,马斯克的xAI也缺席,其他如Meta、Google、Microsoft、Amazon都交了。此外,法国的AI明星Mistral竟然也交了意见。粗略翻了一下,感觉很有意思,在对待开源的态度、安全监管、芯片出口管制以及AI监管等关键议题上,这些企业有很多共性的意见,但也有各自的侧重,折射出背后商业模式的差异,以及对AI技术竞争和风险治理的不同理解。
一、开源和闭源
不出意外,Meta和Mistral,以及两家同样交了意见的开源平台Github、Huggingface是最坚定的开源倡导者。
Meta花了很大篇幅强调开源AI的重要性,认为开源模型将成为全球开发者构建应用和实现进一步创新的标准基础,为了国家安全和经济安全,美国应该确保全球AI基础层由美国开源模型构建。Meta重点抨击了对开源模型进行出口管制的建议,指出限制美国企业发布开源模型只会导致全球开发者转向中国的开源模型,美国的长处在分散式、开放式创新,政府如果以出口管制或其他手段强行“闭源”,不光没法阻止中国获取美国的模型,还会损害美国的利益。特别是,对开源模型的限制,相当于美国拱手让出全球AI开发标准制定的主导权,反而巩固了中国的优势。Meta指出,DeepSeek被指部分使用了OpenAI闭源模型的输出,说明再严格的“闭源”政策也没法阻断技术扩散。
Mistral也觉得,以开源为核心的分散式人工智能发展模式,能让更多开发者参与创新,推动技术进步、增强系统安全,并扩大AI的社会受益面。开源不仅降低了准入门槛,激发全国范围的创业与研发活力,也有助于构建多元协作的技术生态,实现更透明、更可信的人工智能治理。
此外,两家公司都强调,开放模型代码和权重不仅能动员全球开发者加速迭代,还能避免技术被少数巨头垄断,有利于激发创新。
OpenAI指出,“开源或闭源不是非此即彼,美国两者都需要,而且它们可以互补,共同服务于美国主导的AI生态。Anthropic和其他公司没有就开源模型问题表态。
二、AI安全监管
在对待前沿模型风险和政府监管方面,Anthropic可谓最为激进,他们预计最早2026年末或2027年可能出现具有颠覆能力的超级AI系统,建议联邦政府建立权威的第三方测试和评价机制,针对最先进的AI模型进行持续的安全评估,保留并加强美国商务部的AI安全研究所。它还建议组建跨学科专业团队,汇集国家安全专家和AI技术专家,专门分析前沿模型的脆弱性、监督高风险系统的部署,以便能及时发现超级AI可能带来的新型威胁(如模型被恶意利用、出现不可控行为等)。
OpenAI强调了要警惕各州过严的法规对创新的不利影响,认为美国AI企业如果被要求遵守过多碎片化的州法,会在和中国企业的竞争中落后。他们基本的态度是,绝大多数AI活动轻监管或不监管,让市场自由竞争,但辅之以明确、常识性的技术标准来约束最危险的行为(如模型滥用)。OpenAI还把版权和数据获取列为影响AI竞争力的重大政策点,呼吁政府实行一种“促进学习自由的版权政策”,在AI训练数据问题上坚守开放取态:在尊重版权的同时,确保AI对公开信息的训练权利不被过度缩减,不“以版权为名行保护主义之实”。
与前两者相比,Google、Microsoft 和Amazon主张安全监管更多应当基于现有框架和行业自律:例如运用NIST的风险管理框架、加强网络安全标准、各行业监管者各司其职等。
Meta和Mistral最反对新增监管。Meta明确警告过早、笼统的法规和繁重的测试要求会扼杀创新,称赞特朗普政府撤销了拜登妨碍AI创新的政策。Mistral则强调苛刻的监管规则只会巩固大公司的优势、抑制创新。
三、出口管制与地缘竞争
在是否应对中国加强技术封锁问题上,OpenAI 和Anthropic是最鹰派的,措辞也最强硬。两家公司都支持拜登政府的AI扩散出口管制框架,主张限制高端GPU芯片和模型权重流向中国,并强调美国政府要确保美国的民主AI在和中国AI的竞争中取胜。
Google 呼吁美国政府采取“平衡的出口管制”,既保护国家安全,又能使美国的出口和全球业务运营得以进行。Google批评拜登政府实施的人工智能出口管制规则,包括AI扩散出口管制框架,可能给美国云服务商带来不成比例的负担,呼吁特朗普政府精心设计出口管制,避免给美国公司造成不必要的竞争劣势;应给BIS更多资源,同时简化出口许可流程,并考虑更广泛的生态系统问题。
作为在中国有云业务的美国企业,Microsoft和Amazon就比较鸡贼一些,完全不去碰出口管制和地缘政治这种敏感问题。
让我多少有点意外的是,作为一家法国公司,Mistral在这个问题上有点仗义执言。他们强调了“提升芯片流通”对保证全球供应链畅通的重要性,并且提醒美国:出口管制可能会产生意想不到的后果,导致创新转移到其他竞争地区,因为公司们会为了规避限制,在监管更为宽松的环境中开发技术。AI计划应该考虑保护国家安全,但也得避免扼杀美国的创新和经济增长,要在两者之间求一个平衡。此外,Mistral还指出,对AI模型征收高额关税可能会阻碍美国利用国外新开发的模型,而这些模型本可以为美国带来新的发展、新的就业机会以及国内的经济增长。
相比之下,Meta不太关心对中国的出口管制,而是特别关注美国AI企业在欧洲面临的强监管,希望美国政府通过外交和贸易手段捍卫开放的数字市场,让美国AI企业在海外能公平竞争,巩固美国在全球AI生态中的领导力。具体来说,他们希望美国政府一方面抵制外国政府在AI领域对美国公司的不当限制和歧视措施,另一方面确保美国而不是中国等其他国家主导AI国际规则制定。
Google也批评了欧洲,指出“某些司法管辖区”过于严格的AI监管措施可能会阻碍AI应用,并举了几个例子:比如通过繁琐的监管涵盖低风险用例,对AI开发者而非更接近用例的部署者施加模糊的监管负担,以可能限制美国公司在美国及全球创新的方式把版权法进行域外延伸等。Google认为,这些强监管破坏了美国AI产品和服务的全球互操作性,美国政府应该和相关外国政府接触,推动制定促进创新、鼓励竞争并允许采用一流技术的政策。
四、政府在AI发展中的角色
七家公司普遍欢迎政府发挥积极作用,但各自对政府应扮演何种角色的理解有一些不同。
Microsoft、Google和Amazon相当于更希望美国政府当一个合格的“基础设施投资者和示范用户”:呼吁政府优先投资电力、数据中心、人才培训、AI采购等底层工程,并且在公共服务中能率先采用AI应用,带动整个市场的发展。
OpenAI与Anthropic更强调政府的“规则制定者”角色。OpenAI提供了非常具体的立法建议和外交策略,希望政府在技术战略、版权、国际联盟协调方面提供“顶层设计”。Anthropic则建议政府设立国家安全评估机构、建立实验室治理机制,特别期待政府能介入AI安全监管领域,并且和他们这样的私营企业合作制定AI安全的规则和模型评测等标准。
相比之下,Meta和Mistral对政府的角色更加谨慎,反复强调政府“不要过度干预”,特别是要求警惕各州的碎片化监管倾向。Meta指出,如果看现在一些州的做法,美国正朝着建立一个比欧盟还要更繁琐和严苛的AI监管环境的方向发展。要遵守这些法律在技术上或商业上都很难做到,就算能做到也会把美国企业的资源从AI研发和部署中抽走,极大地减缓甚至完全阻止美国的创新,从而让中国和其他国家的AI竞争对手受益。
Mistral也指出,各州各自为政的监管方式可能会给新进入者带来高昂的合规成本,限制其扩张潜力,并损害州际商业活动。而且这往往只能巩固那些能承担得起合规成本的大公司的主导地位,无意中破坏开放、竞争的市场环境。他们还举了欧盟AI监管作为反例,说你看欧盟27个成员国监管的碎片化,让欧洲企业在合规性和法律确定性方面很难受,更不用说那些行政成本和投资障碍了。
这几家公司提交的书面意见基本都在10页以上,上述只是粗略读下来的一些初步印象,建议对美国未来AI政策走向感兴趣的同仁们都好好研读一下,一定能有不少收获,特别是管窥美国产业界主力的核心政策诉求。
文章仅做学术探讨和研究交流使用,相关判断不代表任何公司或机构立场,也不构成任何商业建议。转载请注明出处。