谷歌在7月30日宣布,它将和包括美国人工智能公司在内的多家公司一起,签署欧盟推出的《通用人工智能行为准则》。谷歌表示,虽然签署了这份自愿性的指导规范(旨在为欧盟重要的人工智能法案提供指引),但它仍然担心欧盟的《人工智能法案》和这个《行为准则》可能会拖慢欧洲人工智能技术的进步和实际应用。
谷歌承诺会与欧盟的人工智能监管机构合作,努力让这些规则跟上人工智能快速发展的步伐。
实际上,这是谷歌经过深思熟虑后做出的一项精明的战略投资。
他们公开表达了对规则可能抑制创新的担忧,这确实是他们真实看法的一部分,但选择签字这个行动本身恰恰说明,在他们内部的精密计算中,这些潜在的合规开支是值得付出的代价,因为它买到了更重要的东西:确保未来在欧洲市场继续经营人工智能业务的“门票”,以及规则相对清晰所带来的确定性。
为什么说这是“门票”和“确定性”?因为欧盟的人工智能法案马上就要全面生效了,特别是针对大型、强大AI模型的新规则几天后(8月2日)就开始实施。在这个关键节点签署行为准则,相当于向监管机构表明了积极配合的态度。
这种姿态很重要,它能帮助谷歌在后续的实际监管过程中,比如面临检查、评估或者规则解释有模糊地带时,获得监管机构更多的理解和可能的灵活性,减少不必要的麻烦和阻碍。
这比那些不签字的公司(比如Meta)处境要好得多,后者可能会被盯得更紧、查得更频繁,面临更大的不确定性风险。
更重要的是,谷歌这笔“买路钱”还意外地帮他们筑起了一道“护城河”。
人工智能法案的合规要求,特别是涉及透明度、版权和安全措施的部分,非常复杂且成本高昂。像谷歌这样拥有庞大法务团队、海量资源和成熟合规体系的大公司,虽然也要投入,但相对有能力消化这些成本。
然而,对于那些资金和人力都有限的竞争对手,尤其是欧洲本土的中小型人工智能初创公司,这些合规要求就是一道难以逾越的高墙。
他们可能根本负担不起建立完善合规机制的费用,或者会被拖慢产品开发和上市的速度。
结果就是,很多有潜力的小玩家要么被挡在市场门外,要么竞争力被大大削弱。这无形中减少了谷歌面临的竞争压力,巩固了他们在欧洲人工智能市场的优势地位。
1. Meta为何拒签?
也不是所有公司都乐意签署这样的法案条款的,Meta选择不签署欧盟的自愿性人工智能行为准则,给出的理由是规则存在“法律不确定性”以及监管要求可能“超出了AI法案本身的范围”。
虽然这些担忧在字面上有一定道理,但更深入地看,这些说法更像是一个表面的、战术性的解释,而非Meta做出这个困难决定的根本原因。
真正的核心冲突在于Meta赖以生存的商业模式与欧盟新规的核心要求之间存在难以调和的矛盾。
Meta的核心业务是建立在收集和分析海量用户数据来精准投放广告的基础上的。
它的利润高度依赖这种模式。
而欧盟的AI法案,以及它所倡导的行为准则,特别强调对人工智能系统的透明度(要求解释AI如何做出决策)、严格的数据治理(规范数据如何使用和保护)、以及对可能产生广泛社会影响的强大AI模型(“系统性风险”模型)进行严密管控。
这些要求,尤其是透明度和数据使用规则,很可能直接触及Meta现有业务运作的核心神经。
签署这份自愿性的行为准则,无异于在监管细则完全落地前,就公开承诺遵守一套可能深刻改变甚至威胁其核心盈利模式的原则。这对Meta来说,是一个现阶段无法承受的重大风险。
因此,Meta的拒绝,本质上是一种战略性的回避。
这个选择带来的孤立状态,其代价可能远超Meta的预期,并会在欧洲市场带来一系列实实在在的困难。
Meta作为唯一公开拒绝的主要科技巨头,它很可能成为欧盟监管机构重点关注的对象。
这意味着它的AI产品(比如其开源的Llama大模型)在欧洲的推出可能遭遇更长的审批等待时间,接受更频繁、更深入的合规检查和调查,流程上的阻碍会显著增加。
由于没有签署行为准则,Meta将缺乏该框架可能为其签署者提供的额外指引、缓冲或与监管机构更顺畅的沟通渠道。
当面对AI法案中那些模糊或解释空间大的条款时,Meta只能依靠自己的团队去解读和应对,这增加了误判规则和执行风险的可能性,也意味着需要投入更多资源来确保合规,且结果更不确定。
另外,如果这份自愿性的行为准则在实践中被欧盟监管机构视为行业“最佳实践”的标准,或者在执法过程中对签署者表现出某种优先考虑或信任(例如在审批速度或问题处理上),那么Meta作为非签署方的身份,就可能成为其AI产品和服务在欧洲顺利推广和运营的一个实质性障碍,监管机构和潜在合作伙伴可能对其合规姿态产生疑虑。
从这一点上而言,Meta或者会背负“声誉劣势”。在欧盟大力推动“负责任”和“可信赖”人工智能的背景下,公开拒绝参与这个行业自愿倡议,很容易给公众和监管者留下Meta“不合作”、“规避责任”甚至“抗拒监管”的负面印象。这种声誉损害可能影响用户信任,并进一步激化与监管机构的关系。
所以,Meta的立场似乎在实际意义上隐含着一个巨大的、充满不确定性的风险,它赌的是美国或者其他主要市场的AI监管步伐会显著慢于欧盟,且监管尺度会宽松得多。
Meta押注自己能在监管较少的美国或其他地区更自由地发展其AI雄心。
不过,如果欧盟的这套监管模式,作为全球首个全面AI监管框架,被其他重要国家或地区(包括美国未来可能的立法)所效仿或借鉴,那么Meta就将陷入全球性的被动局面。它届时将不得不在多个主要市场疲于应对类似甚至更严格的监管要求,而失去了像谷歌、微软那样早期参与塑造规则、积累合规经验并争取缓冲空间的机会。
这个赌注的风险极高,其后果可能对Meta的全球AI战略产生深远影响。
2. 欧盟AI监管有何影响?
欧盟怀抱着一个宏大的目标:希望在人工智能(AI)治理领域复制其在数据保护(GDPR)上的成功,成为全球制定AI规则的主导力量。
这个“规则制定者”的愿景本身有其价值,但将其应用于AI领域时,却面临着一个严峻的现实矛盾,甚至可能演变成一个“致命悖论”。
AI技术的发展,特别是核心的基础大模型研发,具有两个关键特点:一是技术迭代更新速度极快,竞争激烈;二是需要投入天文数字般的资金和巨大的计算资源(算力)进行训练和优化。
欧盟当前的监管框架——《人工智能法案》及其倡导的行为准则——以其高度的复杂性和前瞻性的严格规定而著称。
这套规则详细划分风险等级,对高风险和强大的基础模型施加了繁重的透明度、安全评估、数据治理和持续监控等义务。
问题在于,欧盟本土目前恰恰缺乏具有全球竞争力、能引领基础模型发展的重量级AI企业。
严格的监管雄心与薄弱的产业基础之间形成了尖锐的冲突。
最令人担忧的结果可能是欧盟成功地制定了被全球讨论甚至效仿的AI规则,但这些规则在实际运行中,主要约束和影响的是来自美国(如谷歌、OpenAI、Meta)和中国等域外的科技巨头。
与此同时,这套高标准、高成本的监管环境,却可能极大地抑制甚至扼杀欧洲本土AI初创公司的成长,尤其是那些有志于开发基础大模型或具有潜在高风险应用的创新企业。
规则制定了,但场上奔跑的主力球员依然是外来的,本土的新生力量在起跑阶段就被沉重的规则负担压垮了。
对于欧洲本土的AI初创公司而言,当前的监管框架带来的挑战尤为严峻,甚至可以说面临“窒息”的风险,主要集中在几个方面:
第一,初创公司通常资金有限,融资来之不易。
现在,他们必须将本应全力投入核心技术研发和产品迭代的宝贵资金,大量分流去组建专业的法务合规团队、进行昂贵的安全测试、准备满足监管要求的详尽技术文档和风险评估报告。
这些合规性开支在其总融资额中占比极高,严重挤占了核心创新所需的资源。
有分析指出,对于开发基础模型的欧洲初创公司,合规相关成本可能占到早期运营成本的30%甚至更高,这是一个极其沉重的负担。
第二,复杂的合规要求和漫长的监管审批流程(比如对高风险系统或基础模型的额外审查)会显著延迟初创公司产品推向市场的时间。
在AI这个高速迭代、赢家通吃效应明显的领域,上市时间的延误是致命的。
竞争对手(尤其是资源更丰富、应对监管更有经验的美资巨头)可能更快地推出产品、抢占市场、积累用户和数据,而欧洲初创公司还在合规流程中挣扎,错失宝贵的时间窗口。
第三,风险投资者(VC)是初创公司的生命线,面对欧盟严苛且仍在演变的监管环境、高昂的合规成本以及由此带来的不确定性,投资者,尤其是来自欧盟以外的国际资本,必然会重新评估投资欧洲AI初创公司的风险和回报。
他们很可能会大幅下调对这些公司的估值预期,因为需要为合规预留更多资金、承担更大的监管风险。
甚至于,许多投资者可能干脆选择将资金转向监管环境更友好、更可预测的地区,比如美国或亚洲某些国家,以寻求更高的回报率和更快的退出路径。
这势必会导致欧洲本土AI初创公司融资更加困难,发展受阻。
基于以上困境,可以预见欧洲本土AI初创公司,特别是那些在基础模型或高风险应用领域的创新者,前景不容乐观。大概一些难以独立生存的初创公司可能被资金雄厚的大型科技公司收购。这些巨头看中的可能是其技术或人才,收购后将其作为进入欧洲市场的“合规白手套”,利用其本地身份应对监管。但这意味着创新的主导权和控制权依然落入域外巨头之手。
而那些无法获得足够融资或被收购的公司,大概率在耗尽有限的资金后面临倒闭的结局。
为了生存和发展,一些最具潜力的初创公司可能被迫将核心研发团队和运营主体迁移到监管负担较轻的国家或地区,以规避欧盟的严规。
欧盟精心构建的、旨在引领全球并保护公民的AI监管框架,如果不谨慎平衡其尺度,其高昂的合规成本和对创新的抑制效应,可能会与其“创新温床”的初衷背道而驰。
非但未能有效培育出本土的AI领军企业,反而可能造成本土创新力量被严重削弱,导致关键技术和人才流向域外,最终使得欧洲在全球AI竞赛中进一步落后。
这个监管雄心与创新现实之间的鸿沟,是欧盟实现其AI全球领导地位梦想所必须正视和解决的“致命悖论”。
3. 从投资角度看
对于关注人工智能领域的投资者来说,欧盟《人工智能法案》及其自愿性行为准则的落地,标志着投资逻辑的根本性转变。
市场将根据公司应对新监管环境的能力和策略,迅速对相关企业的估值进行重新调整。
核心的调整方向围绕着“合规确定性带来的价值提升”和“监管摩擦导致的价值折损”展开。
像谷歌、微软这样积极签署行为准则、展示合规意愿的科技巨头,尽管需要承担额外的合规成本,但在投资者眼中,其欧洲AI业务的价值可能反而会获得提升(可称为“监管确定性溢价”)。
原因在于它们拥有雄厚的财力和成熟的合规体系,能够相对从容地吸收合规开支,不会伤筋动骨;同时,高昂的合规门槛会挤压资源有限的中小竞争对手(尤其是欧洲本土初创公司),客观上为这些巨头扫除或削弱了潜在挑战者,有助于巩固其市场地位;早期深度参与,使它们更有可能在后续规则的解释和执行细节上获得一定话语权,甚至将合规转化为一种竞争优势。因此,在评估其欧洲AI业务的长期价值时,投资者会倾向于增加一个“确定性因子”,反映其更稳定、更可预测的发展前景。
相反,像Meta这样公开拒绝签署行为准则的公司,其欧洲AI业务则面临显著的“监管摩擦折价”和“法律风险溢价”。投资者必须下调对其在欧洲市场的增长速度和盈利能力的预期。
对于欧洲本土的AI初创公司,尤其是开发基础大模型或高风险应用的,影响更为严峻,整个板块面临系统性的估值下调。
投资者在评估它们时必须显著增加两个关键风险因子:
- 合规成本因子: 必须大幅调高模型中关于合规性支出的预期,这部分成本将严重侵蚀用于核心研发和业务拓展的资金。
- 监管延迟风险因子: 必须考虑因冗长合规审批流程导致产品上市时间严重推迟、错失市场机会的风险。这直接降低了投资回报的预期速度和确定性。因此,融资将变得更加困难,投资者会要求更苛刻的条款(如更强的业绩对赌、更优先的清算权等)来补偿风险。
面对这种新的、复杂的监管环境,“监管套利”将成为投资者重要的策略方向,主要体现在几个方面:
- 地域套利: 资本会自然流向监管环境更友好、更可预测或尚在形成中的地区。投资于美国(联邦层面AI监管框架尚未成型)、部分监管策略可能更灵活的亚洲国家,或者在欧盟内部寻找监管执行尺度可能相对宽松的成员国进行AI基础研发投资,将更具吸引力。对于应用层的投资,则需非常细致地评估目标产品具体落地市场的监管要求。
- 技术套利: 投资可能从受监管影响深重的领域(如通用基础模型)转向监管负担较轻的AI细分赛道。这包括专注于特定垂直行业(如医疗、工业)的“有限风险”应用、企业内部效率提升工具等。投资那些技术路径本身可能更易于满足合规要求(例如在可解释性、数据源清晰度方面有优势)的项目也是一种策略,尽管当前焦点在大模型上。
- 并购套利: 预期中欧洲AI初创公司将面临的困境(融资难、合规成本高、发展受阻),为资金充裕的大型科技公司(如谷歌、微软,甚至非欧洲企业)创造了以相对较低价格收购优质技术资产、专利和顶尖人才团队的机会。投资者可能因此更青睐那些本身具备强大并购整合能力的平台型大公司,而非选择投资那些独立发展、面临巨大合规挑战的欧洲初创公司。
无论如何,欧盟AI新规迫使投资者彻底重构其估值模型和投资策略已是板上钉钉。
评估一家AI公司,其应对监管的能力(包括成本承受力、战略选择、对规则的影响力)已成为与技术创新、市场潜力同等重要、甚至在某些情况下更为关键的核心考量因素。
监管风险与机遇并存,识别“合规确定性溢价”、“监管摩擦折价”以及多样化的“监管套利”空间,将是未来在AI领域进行成功投资的关键。
本文作者 | 东叔
审校 | 童任
配图/封面来源 | 腾讯新闻图库
编辑/出品 | 东针-知识频道(未经允许,禁止转载)