【INHERITAGE】传递优质生活美学 - 领略顶级生活的极致品味

AI OVERLOAD: THE HIDDEN DANGER TO GLOBAL FINANCE

智能超载:AI 在金融领域的隐藏风险

AI OVERLOAD: THE HIDDEN DANGER TO GLOBAL FINANCE 智能超载:AI 在金融领域的隐藏风险

AI 是效率与资本扩张的动力,也可能是下一轮金融脆弱性源头。

Text_李绍廷 / Michael Lee Photo_istockphoto

研究乐观预估全球生成式人工智慧( Artificial Intelligence 或AI ) 每年能增加约 3 兆美元经济价值,银行业具有高数据密度,被视为导入 AI 最大受益者之一,预计每年至少增加 2,000 亿价值,相当全球银行业营业利润 9%,主要受惠在资讯处理、释放人力资源与风险管理等领域。然而,近年许多大型机构如 IMF、BIS、FSB 等纷纷示警人工智慧也带来风险,并将风险大致分为三类,包括网路安全、技术风险、以及同质化风险。部分专家甚至预测,各种风险叠加、将造成更严重的全球金融危机。

网络安全

在 2024 年一项网路安全调查中,多数受访者认为 AI 降低了网路攻击的技术门槛,生成式 AI 将为攻击者提供优势。深度伪造( DeepFakes )的语音和影片可用于诈骗或生成假新闻。最知名案例为英国工程巨头 Arup,其香港员工遭 AI 深伪的财务长视讯会议欺骗,误信收购指令而汇出2亿港元。一项针对保险公司调查也发现,48% 受访公司遭遇AI 欺诈,包括伪造医疗纪录或死亡证明。
此外, 今年 10 月 AI 新创 Anthropic 警告,少量但设计精准的数据投毒( Data Poisoning ) ─ 在AI 训练时刻意植入错误资料─足以显著破坏模型,实验在训练资料中置入 250 篇恶意文件(在庞大资料占 0.00016% ),模型就输出许多错误讯息,显示出极端攻守不对称。研究显示,全球在「AI 网络安全」支出将大幅增长,预估到 2030 年增长 3 倍达 1,300 亿美元。

技术风险与黑箱

AI 技术风险主要来自幻觉( Hallucination )与输出不一致等问题。目前大型语言模型(注)并非以人类方式「理解」语义与逻辑,而是依靠模型训练的机率分布与模式匹配,计算「最可能出现的下一个字」。因此 AI 可能同一个问题给出不同答案,或在没有足够依据、却自信地捏造内容。研究显示,模型幻觉率 ─ 产生看似合理但错误的资讯─可能达 4%;若与 AI 讨论高度专业内容,错误比例将会更高。
值得留意的是,在某些高风险场景,幻觉带来的风险是不可接受的,例如临床医疗、法律判决、金融投资等。诺贝尔经济学奖得主 Joseph E. Stiglitz 研究显示,若没有适当监管或奖惩机制,AI 大幅降低生产内容边际成本,而资讯平台获利来自点击而非「真实」,AI 最终可能导致高品质资讯减少、低品质内容泛滥。
再者,AI 的黑箱特性缺乏透明度,当偏离目的或失控,难以及时察觉并修正。 1980 年 EURISKO 曾在海军模拟中选择「击沉我方慢速船只」,2017 AlphaGo Zero 「阿尔法围棋零」 版本,也在自我学习中、演化出连专业棋士都无法理解的招式,显示 AI 可能同时产生超预期创新与难以察觉的极端行为。实验也发现多个 AI 引擎互动时,在无指令下竟学会共谋定价。
与依循人类规则、可解释性较高的传统演算法( Algorithm )相比,AI 为了找出数学上「全局最优」,更可能产生超预期、甚至偏离道德标准的行动,形成新的金融不稳定因子。英国央行( Bank of England )今年 4 月曾警告,当 AI 意识到市场波动可带来利润,它可能为了获利而主动触发震荡。

注 : 大型语言模型( Large Language Model ,LLM )透过大量文字与数据训练,展现惊人语言能力,但本质仍偏向统计模仿,而非真正理解。人类智慧并不完全依赖语言,主要靠「世界模型」( World Model )─透过「看见」世界,进而「理解」与「推演」,在脑中模拟因果并预判未来。 LLM 缺乏与真实物理世界直接互动能力,因此在面对未知情况或物理常识时仍易出错。目前争论核心在于:扩大 LLM 训练规模,是否足以让世界模型自动涌现,抑或 LLM 从开始就是一条无法通往通用人工智慧 ( AGI ) 的死胡同?

同质化与羊群效应

同质化来自 AI 模型高度依赖少数供应商,与相同模型导致的羊群效应。顶尖 AI 模型需要稀缺三大资源:算力、人力和数据;目前估计 LLM 模型硬体与训练成本超过数亿美元,且关键金融数据掌握在少数供应商,如 Bloomberg、LSEG 的 Workspace(前身为 Refinitiv Eikon )、与 BlackRock Aladdin 等。当云端服务发生大规模故障,可能造成交易中止、延迟等。去年史上最大 IT 宕机事件 CrowdStrike,就暴露出高度依赖少数供应商的结构风险。
重要的是,AI 透过相同历史资料优化参数,本质上会过滤极端或异常观点,最终收敛到「统计上最有效」策略,导致行为趋同或羊群效应。如果分析师引用 AI 生成资料,这些二、三手内容又被写进报告、新闻,再被下一代模型引用,知识生态会变得愈来愈同质化。
AI 的黑箱特性加上同质化,很可能为金融市场带来灾难。 IMF 指出,演算法交易约占美股交易七成;AI 极大化资讯效率,却也因压缩套利空间,迫使交易者透过高杠杆以维持回报。 AI 高效提升市场短期流动性,却「放大」危机漏洞:包括过度杠杆、系统不透明与复杂、以及自我保全 ─ 危机时倾向持有最具流动性资产。历史上多次出现演算法失控案例,如 1987 年黑色星期一、单日下跌超过两成。
美国证监会( SEC )主席 Gary Gensler 警告,若缺乏监管,AI 几乎不可避免将成为下次金融危机核心因素。此外,影子银行在 AI 应用上监管约束更少,也可能成为新的风险放大器。

AI 能创造 Alpha 「投资价值」 而非 Beta 「波幅」 ?

AI 「拉平」获取和分析数据的竞争环境。传统的演算法与机器学习,仍是基于结构化或可量化资料建立模型以提高预测力。而AI 能进一步「类理解」人类语言等非结构化资讯、扩大可分析资料范围 ( 如企业文件、新闻、社群媒体等 ),从中捕捉难以量化的情绪行为。
但与十年多前投资界即导入的机器学习一样,AI 仍停留在短期报酬阶段。背后有几个主要因素,包括: 短周期( 1 年以内、甚至日内)的资料样本数多,更适合产生稳定统计关系;且AI 需快速反馈,才知模型效果。研究也显示AI 在长周期预测力降低(尤其是 5 年后),因公司策略、产业结构与宏观环境都发生变化。
Citadel ─ 全球最赚钱对冲基金 ─ 创办人 Kenneth Griffin 也指出,AI 在长期布局力有未逮;投资洞见在理解未来关键演变,他不认为AI 会彻底颠覆投资产业。如系统性危机非常罕见,AI 缺乏足够「样本」学习;且严重金融危机属「未知的未知」( Unknown Unknowns );风险不仅是统计上的,更来自市场参与者互动,AI 仍无法预测人类反馈。
数据显示多数由 AI 驱动的 ETF 仍难以击败指数。 Alpha 将来自 AI 无法做到的部分,如独特资料 ( 私募数据、管理者提供深入资料等 )、软数据洞察 ─ 企业文化、产业竞争、管理品质等、与找出 AI 共识的错误。 AI 的同质化可能也让逆向投资变得更稀缺、也更需要耐心。小型价值股近年落后大型成长股,除资金透过指数化投向龙头产业外,演算法与AI 亦倾向追逐资讯量多的热门股。

估值修正的危机

由于 AI 资本支出到 2030 年可能达 5 至 7 兆美元,J.P. Morgan 预估一年 AI 需带来 6,500 亿利润,AI 投资报酬率才达10%。然而 IBM 的 CEO 调查指出:只有 25% AI 专案达到预期投资报酬率。 McKinsey 最新研究也显示,虽然 AI 企业普及率近九成,但带来实质财务回报的企业仅 39%。
外传 AI 巨头 OpenAI 今年上半年收入仅 43 亿美元,亏损扩大至 135 亿;随着 Gemini 3.0 推出,市场也开始怀疑 OpenAI 长期是否可转亏为盈,尤其是如何对抗现有大型科技公司的生态系护城河。 OpenAI 每周活跃用户 3 年内达 8 亿,但实际付费比率不足 5% 或 3,500 万用户。 OpenAI 估值近 5,000 亿美元,与拥有 3 亿订阅户的 Netflix 相当,但前者付费用户规模仅后者九分之一。
近期市场杂音频传,AI 巨头间相互投资,若最终应用无法创造收益(如 OpenAI 预期未来 8 年投入 1.4 兆美元,而其目前收入还不到支出 2% ),将带来收入重复认列、现金流断裂、估值回撤等连锁效应。另一方面,Oracle 大规模投资,不仅其信用避险成本飙升至金融危机以来新高,资产「由轻转重」商业模式、债务激增也让估值受压。加拿大国际宏观权威研究所 BCA 并以铁路、网路为例指出,资本支出进入后期往往由举债与外部融资支撑,杠杆垫高后,一旦需求转弱、修正通常更剧烈。
目前美股前十大公司多与 AI 相关,占 S&P500 指数市值四成。如此大的乖离,将会导致未来的真正得益者是其他 S&P 500 中 490 家公司、尤其是 AI 缺席的苹果( Apple )?另当然还有坐享低收费或什之于免费的消费者。
且 S&P 500 指数领先本益比 F-PER 22x,高于 2021 年近零利率时期,也仅略低于 2000 年网路泡沫 25x 水准。伦敦经济学人( The Economist )表示,美国股票占美国财富 21%,为 2000 年水准 4 倍。如果 AI 类似网路泡沫,家庭财富与消费可能缩水,导致 GDP下滑 1.6%,足以将经济推向衰退。且以美国目前国债状况,联准会短期内难以再大幅宽松,因市场将怀疑其长期偿债能力。美国目前国债占 GDP 120% ─ 为 30 年前 2 倍;Elon Musk 认为美国跳脱财政泥淖唯一途径,惟有透过AI 与机器人大幅提升生产力。 BCA 倾向 AI 会温和的提升生产力,但低于目前估值隐含的高度期待 。

AI 应审慎监管

AI 价值毋庸置疑,但目前架构大致仍有两项基础限制─仰赖既有数据与依循机率─因此适用范围须审慎界定。当 AI 运作于资料充足、结构稳定且风险可控的有限微观层面,如审计稽核、诈欺侦测、常规风控,其表现往往优于人类。然而进入宏观层面—涉及危机处理、群体行为等 ─ AI 立即面对资料稀缺、未知的未知( Unknown Unknowns )等难题,模型所依赖的历史样本可能误导决策。
专家针对 AI 风险提出两点建议,一为人为介入:强调人类在高风险决策中角色。二为透明度、能见度与可解释性:必须清楚解释AI 模型「如何」与「为何」做决定。黑天鹅效应作者 Nassim Taleb 大声疾呼,今天金融市场脆弱性比过去更高。如果大家同时把 AI 当作风险模型、交易引擎或研究工具,一旦出现错误,后果会极端放大。尤其当一项技术可能带来全面性、不可逆的破坏时(如全球金融危机);即使发生机率极低,也不能用传统成本效益评估,而须采严格预防措施。

Related Articles

相关文章