来源
MAS Partners Industry to Develop AI Risk Management Toolkit for the Financial Sector, https://www.mas.gov.sg/news/media-releases/2026/mas-partners-industry-to-develop-ai-risk-management-toolkit-for-the-financial-sector
2026年3月20日,新加坡金融管理局(MAS)宣布“心智熔炉项目(Project MindForge)”第二阶段圆满结束,并正式面向广泛的金融服务业发布了《人工智能风险管理工具包(AI Risk Management Toolkit)》。该工具包由MAS牵头,联合星展银行、华侨银行、渣打银行等24家全球顶尖金融机构、保险巨头、资产管理公司以及大型科技企业共同开发。其涵盖范围从传统的预测性机器学习,延伸至近年爆发的生成式AI,更前瞻性地将具备高度自主执行能力的代理式AI(Agentic AI)纳入了系统性的风控雷达。
在全球金融业深陷于“大模型技术焦虑”与“合规监管恐惧”双重夹击的当下,MAS此举标志着人工智能在金融领域的监管范式,正式从“抽象的伦理原则探讨”跨入“具象的工程落地与全生命周期审计”阶段。
01
八年爬坡:新加坡金融
AI治理的“最后一公里”
如果单看这份工具包,很容易把它当成新加坡监管层对生成式AI热潮的应激反应。但它是八年爬坡后的自然结果。
起点在2018年。那年深度学习刚开始渗透信贷审批,MAS就察觉到算法黑盒的系统性风险。其发布FEAT原则,从公平、伦理、问责、透明四个维度立下价值基准。但这套高维度的伦理指导缺乏可量化的抓手,机构普遍陷入 “认同原则,却不知如何自证合规”的窘境。
2019年到2023年,MAS把原则变成可审计的方法论。Project Veritas开源了评估工具包:v1.0版(2022年)解决公平性数学度量,v2.0版(2023年6月)整合伦理、问责和透明度评估。星展银行、大华银行、华侨银行等七家机构参与试点,瑞士再保险将其用于核保模型的透明度评估。这一阶段培养出了第一批具备AI伦理审计思维的专业人才,但工具包仍主要应对传统判别式AI。
2023年的大语言模型带来了压力测试。非确定性和“幻觉”问题冲破了Veritas的风控边界。MAS年中启动Project MindForge:第一阶段(2023-2024年5月)发布白皮书,针对银行业提出七大GenAI风险维度;第二阶段(2024年底至2026年3月)监管范围从银行扩展到保险、资产管理,技术范畴也延伸至Agentic AI。
今年3月的工具包是集大成者。它输出四块可执行的工程指南:范围与监督把AI风险提升到董事会问责的企业风险管理高度;AI风险管理要求建立AI资产清单,用风险重要性评估模型给用例分级;生命周期管理将控制嵌入从业务设计到部署监控的全流程;赋能因素锁定组织能力和基础设施。
FEAT给了价值观,Veritas给了评估方法,MindForge在冲击下重构了框架。这份工具包终于把八年积累压缩成了业务流里的“可执行代码”。新加坡金融AI治理正式从“讲原则”“讲评估”,迈入了“讲落地”的阶段。
02
把AI治理塞进业务流程的缝隙里
1
阶段一:1991年至2014年
过去,金融机构在AI应用上面临的最大掣肘往往源于“责任真空”。技术团队只管开发,业务部门只管使用,合规部门只能在外围被动防守。这种条块分割的现状导致一旦系统脱轨,真正的问责主体往往难以界定。
针对这一痛点,工具包的做法是直接将AI治理嵌入现有的企业治理框架,自上而下完成权责切割:董事会负责风险定调与资源调配,管理层抓落实与定期上报,执行层则依托成熟的“三道防线”机制,将风险控制点精准锚定在具体业务环节。
这意味着AI风险从附加性的技术问题,跃升为与信用风险、市场风险同级的核心公司治理议题。
2
流程层面:治理靠识别、分级和控制
对金融机构而言,高悬的原则从来都不缺,真正的痛点在于如何将其“翻译”成日常业务中可落地的管理动作。
工具包提供的思路是把AI治理拆解为标准化环节:先识别,再评估,再控制,最后持续监控。机构首先需要知道自己究竟在使用哪些AI系统,避免"影子AI"无序扩散;随后要对系统进行风险分级,区分哪些应用对业务、客户和合规影响更大;再匹配相应的控制措施,而不是对所有AI一刀切。
尤其值得注意的是,工具包把第三方AI服务纳入流程治理重点。随着机构越来越多依赖外部模型和云服务,AI风险早已不只是"自己开发的系统会不会出错",还包括"是否真正理解所依赖的外部能力"。工具包要求供应商提供标准化信息披露,帮助机构开展尽职调查和持续监控。这回应了一个现实问题:当关键能力来自外部时,风险也会沿着供应链被引入内部。
自此,AI治理开始被转化为金融机构熟悉的流程管理语言。
3
生命周期层面:治理意味着持续控制
过去不少机构对AI治理的理解偏向上线前审查:模型部署前做一次测试、完成一轮合规检查,就算"治理到位"。但生成式AI的应用已越来越清楚地表明,这种一次性把关远远不够。
AI系统的风险不会在部署完成那一刻固定下来。业务场景会变化,数据会漂移,模型表现会波动,系统能力也可能随着版本更新、供应商调整甚至外部环境变化而改变。如果治理只停留在上线前,就意味着最需要关注的后续变化反而容易脱离管理。
工具包建立的是贯穿设计、开发、部署、使用和变更全过程的控制框架。用例设计阶段明确应用场景、业务边界以及人类监督机制;数据处理阶段关注数据合规、质量和偏差;开发和部署阶段建立护栏和审查程序;投入使用后持续监测性能、风险指标和异常变化;一旦模型、数据源或应用方式发生重大变更,必须通过规范的审批和更新流程。
这把AI治理从静态审查推进为动态治理。对于金融行业尤其关键,因为风险往往不是在系统刚上线时爆发,而是在与真实业务环境持续互动的过程中逐步累积、放大,最终演变成合规、市场甚至声誉问题。
03
高风险行业的新技术审慎
金融业天生的高风险与低容错率,从根本上决定了它对新技术的审慎态度。与互联网行业习惯的“小步快跑、试错迭代”不同,金融业务——无论是信贷审批、保险精算、资产管理还是反洗钱——都直接牵涉资金配置、风险定价与市场信任。在这里,系统失灵绝不仅仅是“技术尚待优化”的技术瑕疵,它的破坏力会迅速外溢,顺着金融网络传导至更广泛的经济活动中。
因此,当AI进入金融场景,最核心的考量始终是权责归属与系统底线。在其他领域或许还停留在伦理层面的争议,到了金融业,会迅速转化为真金白银的合规挑战。比如,生成式AI的“幻觉”在别处可能只是一段通顺但错误的废话,但在金融端,它扭曲的往往是投资建议、研究研判甚至对客户的风险定级;而那些具备自主执行能力的智能体,一旦脱离有效约束,直接引发的就是实际的操作风险。更不用说,随着机构越来越依赖外部的大模型和云服务,风险正沿着技术供应链悄然渗透,带来新的不透明性和集中度隐患。
面对这些棘手的新变量,金融业手里握着一张其他行业未必具备的底牌:极其成熟的风险管理传统。长久以来,围绕模型把控、内部控制、合规审查以及审计监督,金融机构早已建立起一套精密运转的防御体系。对他们而言,AI并不是一个完全陌生的“外星生物”,而是一类急需被纳入现有治理体系的新型风险源。
MindForge工具包的核心逻辑也正基于此。它并没有试图另起炉灶去创造一套全新的管理学说,而是提供了一条务实的“嵌入路径”——将AI风险系统性地缝合到既有的金融风控体系中,让它从前沿的科技话题,彻底落地为常规的风控对象。金融业之所以能成为AI治理率先落地的试炼场,绝非因为他们对新技术最狂热,恰恰是源于对失控的零容忍。MindForge的出现,正顺应了这种刚需,推动着金融机构跳出“如何应用AI”的浅层探讨,迈向建立“可信AI”的实质性阶段。
04
把治理能力变成竞争力
透过MindForge,我们能清晰地看到,为什么全球金融业的AI治理会率先在新加坡结出果实。它打破了“监管单方面发文、企业被动应付”的传统套路,转而由官方牵头,直接把银行、险企和科技巨头拉到同一张桌子前共建规则。这种“监管主导、行业共创”的模式,最大的好处是让规则在起草阶段就吸纳了一线的业务场景和技术现状,从源头上跳过了漫长的闭门立法博弈,直接切入最具执行力的实操层面。
这也解释了为什么MindForge没有沦为又一份“务虚”的原则倡议。新加坡的关注点极其务实:与其花几年时间去争论一套宏大却悬空的完美法案,不如先蹚出一条能执行、可复制的治理框架。他们看重的是治理手段能否迅速转化为流程和工具。在AI技术一日千里的当下,这种“以工具代替法条”的敏捷路径,正是新加坡能领先其他地区、率先落地的关键技术原因。
如果把视角拉到全球,新加坡其实是利用自身的结构优势,在欧美之间打了个“时间差”,蹚出了第三条路。欧盟偏好“硬法”约束,一部《人工智能法案》耗时数年,合规成本极高;美国则倾向于让市场驱动,导致联邦真空与各州立法碎片化交织。新加坡既不想用死板的法律条文拖慢创新节奏,也不愿放任市场野蛮生长。作为一个高度集中的金融枢纽,监管机构有能力迅速捏合多方共识,在“强监管”与“全放任”之间,极其高效地切出了一条以“可操作性”为核心的中间路线。
这种务实与高效,根本上是由新加坡的生存逻辑决定的。作为一个极度依赖跨境资本和国际巨头的城邦经济体,“市场信任”与“制度稳定”就是它的生命线。面对AI的冲击,新加坡没有试错的资本,缺乏被广泛接受的治理框架,系统性隐患就会立刻反噬市场信心。反过来,谁能最快立起一套透明、可靠且好用的规矩,谁就能给跨国资本吃下定心丸。
因此,在MindForge抢先发布的背后,新加坡正在把“治理能力”本身,直接打造成一种核心竞争力。在AI时代的国际博弈中,比拼的不仅是谁的技术跑得快,更是谁能最先将这项复杂技术纳入“可管理、可复制”的制度体系。新加坡想要的,不仅是一个安稳的金融AI应用环境,更是要在全球新一轮的规则重塑中,凭借“先发优势”占据主动权。
05
规则落地后的悖论与未解之局
MindForge工具包的发布,为金融机构在面对新一代AI技术时提供了一套可执行的治理路径,也在一定程度上降低了不确定性带来的决策压力。但从更长周期来看,这一框架并不意味着问题已经被彻底解决,相反,它也揭示出人工智能在关键行业落地过程中,仍然存在一些难以回避的结构性张力。
首当其冲的是难以调和的“效率悖论”。为了死守金融安全底线,现有的治理框架几乎无一例外地将“人在回路”作为防范失控的终极护栏。这就引出了一个现实且难以回避的问题:如果高阶AI做出的每一项关键决策,最终都需要人类员工来逐一复核、兜底把关,那么技术所承诺的“指数级降本增效”会不会沦为一个伪命题?在强监管的达摩克利斯之剑下,金融AI的生产力上限,或许已经被合规的安全绳牢牢锁死。
更深层的隐患,在于被悄然掩盖的系统性风险。无论金融机构内部的合规流程设计得多么严密,整个行业对硅谷巨头底层模型与云服务的绝对依赖并没有改变。当全球银行的业务命脉,逐渐交由少数几个不可解释的“算法黑盒”来支撑时,这本质上是一种危险的“风险外包”。工具包可以规范内部流程,却无法从根本上消除这种单点故障的脆弱性。
新加坡的务实,为金融业度过眼下的技术阵痛期提供了一套行之有效的解题思路。但治理规则的落地,从来不是终点。面对算力霸权、技术垄断以及被锁死的生产力上限,金融业想要在智能时代真正握住自身命运的方向盘,面前依然是一条充满博弈与未知数的长路。
撰写 | 陈沛羽 林成丰 王家正(技术治理研究中心)
排版|韩智颖
审核|陆逸沛
2026 WPET
公众号|世政经科技研究院
小红书|世界政经科技论坛
腾讯新闻|世政经科技研究院
网站|wpet.org.cn