红色模型

中国人工智能治理的平衡与失衡

论文
人工智能
发布于

2024-07-26

引言

从 2020 年底开始,中国政府对科技公司的监管措施开始令人闻风丧胆。首先是 11 月,政府紧急叫停融资超 340 亿美元的蚂蚁集团上市计划。随后是 2021 年 7 月,滴滴公司遭到中国网信办审查,其后软件被下架整改,最后因数据违规行为被罚款人民币 80 亿元。2021 年 10 月,美团也因垄断市场行为被罚款愈 5.33 亿美元 (Goldkorn & Che, 2021)。紧接着,中国陆续出台了一系列监管科技企业的重要法规,包括《数据安全法》、《个人信息保护法》和《反垄断法》。不管是对科技巨头的打击,还是多项法规的制定,背后都体现了中国政府已经一改以往“包容审慎”的态度,取而代之的是对科技行业严厉的监管决心。而对于监管机构来说,目前最棘手的对象,莫过于飞速发展的生成式人工智能。

2023 年 4 月,中国互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(下文简称《征求意见稿》),使得中国成为世界上第一个提出全面监管这一新兴技术的国家。紧锣密鼓三个月之后,网信办、国家发展与改革委员会、教育部、科学技术部、工信部以及公安部联合发布了《生成式人工智能服务管理暂行办法》(下文简称《暂行办法》),最终确定了生成式人工智能服务提供商的各项规范。在此之前,中国监管机构已经发布两部人工智能专门法规,分别是 2021 年 12 月发布的《互联网信息服务算法推荐管理规定》(下文简称《算法推荐规定》)和 2022 年 11 月发布的《互联网信息服务深度合成管理规定》(下文简称《深度合成规定》)。然而,严密的监管举措是否会制约中国生成式人工智能行业的发展呢?在人工智能治理中,中国政府扮演的角色难道仅仅是冷血、只会说“不”的监管者而已吗?

显然,这种偏狭的定位忽视了中国错综复杂的制度结构和社会现实。本系列文章希望打开这其中的复杂性,试图分析中国政府如何通过扮演多重角色实现人工智能治理,同时又是如何相互平衡不同角色之间的矛盾。这三组矛盾分别是发展与安全,投资与消费,以及地方现实和全球野心。这么安排,并不是为了搭建一个看似二元对立的框架,而是希望将中国政府放置在不同角色的紧张博弈之中进行讨论。因为如果只是简单静态地列举中国政府如何发挥各种职能,对于书写国家与技术发展之间的纠缠关系而言,是乏力,同时也是寡淡的。

“中国方案”的安全感

伴随人工智能的发展,对其风险的担忧也越来越多 (Bird 等, 2023; Bommasani 等, 2022; Hendrycks 等, 2023; Park 等, 2023; Weidinger 等, 2022)。由此,发展优先抑或安全优先的路径之争,便成全球人工智能治理的辩论核心。2024 年 3 月,欧盟通过了《人工智能法》,明确了安全优于发展的价值序列,要求成员国基于人工智能系统风险分级管理(risk-based approach),加强对人工智能科技公司的监管,进而限制技术发展带来的潜在风险。那么“中国方案”又将如何抉择呢?一方面,中国政府需要扮演监管者的角色,以保证人工智能的安全。另一方面在经济出现大幅下滑,出口下滑、消费和生产减少、失业率上升的大背景下 (Huang, 2023),又需要通过推动人工智能产业发展,以刺激经济和恢复市场信心。基于此,我将在本文分析中国政府是如何监管,又是如何推动人工智能发展,以及在这两个角色矛盾中又是如何平衡的?

首先,试图分析所有和人工智能监管相关的法规,在一篇论文中显然是不现实的。因此,本节的分析对象聚焦于明确针对人工智能的国家级政策文件,也就是上文提及的三部法规,分别处理推荐算法、深度合成和生成式人工智能。面对中国政府发布的法规,国际评论往往会陷入两种错误成见,第一种认为这些法规无关紧要,是毫无意义的一纸空文,这种观点通常预设中国共产党有着不受制约的权力,因此可以无视这些规定。第二种则是将中国的监管措施视作一种威胁,将其片面地视为争夺国际治理权的手段。这种观点与其说是在警惕中国制定全球治理规则,不如说是暗渡陈仓地合法化美国的领导地位 (Sheehan, 2023)。当然,我并非否认中国政府有着领导人工智能全球治理的野心和愿景 (Cheng & Zeng, 2023),而是指出,上述两种观点都忽略了对法规本身的分析,因此对于中国政府发挥监管职能的着力点和动机,也就不可能有清晰的认识。

2021 年《算法推荐规定》标志着中国政府开始对算法和人工智能进行有针对性的监管。法规中定义的“算法推荐技术”具体可以分为以下几个类别:(1)生成合成类,例如 AIGC 相关产品和服务;(2)个性化推送类,例如根据大数据预测消费者习惯进而推荐产品;(3)排序精选类,例如社交媒体应用的热搜榜单;(4)检索过滤类,例如搜索引擎结果排除特定内容;(5)调度决策类,例如外卖和打车平台。针对这些场景,法规又要求在提供服务之日起十个工作日内,算法推荐服务提供者应该向网信办(或者其它地方网信部门)进行算法备案。备案的内容包括服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息。当备案手续完成之后,服务提供者还需要在相关网站上展示备案编号等信息。政府也会将审核通过的算法备案清单公布于众。这项规定不仅出现于算法推荐规定中,同样也出现在另外两部法规,其重要性不言而喻。

然而值得关注的是,并不是所有算法都需要备案,只有在产品、服务或者程序具有“舆论属性或社会动员能力”时才需要。那么所谓“舆论属性或社会动员能力”的标准又是什么呢?三部法规并未给出清晰的定义。但这种模棱两可的态度,恰恰又可以反映监管机构的动机,即确保媒体议程设置的主动权和国家意识形态安全。要理解这一点,需要追溯到中国官方媒体批评“算法推荐”的起源。2016 年底,人民网发布一篇名为《算法盛行更需“总编辑”》的评论,虽然人民网没有直接点名,但其主要针对的是今日头条,一个由算法驱动的新闻聚合内容平台。至于导火索,则是今日头条创始人张一鸣一次“不识时务”的表态。

2016 年 12 月,张一鸣接受了《财经》杂志的采访。在谈话中,张一鸣将今日头条描绘成一个中立的平台,其算法的唯一目标就是为用户匹配他们感兴趣的内容,无论这些内容是高尚还是低俗。他明确否认今日头条应该尝试引导用户,或者向他们灌输任何形式的价值观。同时他也拒绝了今日头条需要一个“总编辑”的建议。张一鸣对于内容审查的自由放任态度,无疑和中共的“坚持党性原则、坚持党管媒体”理念背道而驰。2016 年 1 月,习近平在“党的新闻舆论工作座谈会”上强调“党和政府主办的媒体是党和政府的宣传阵地,必须姓党”。这意味着中共对意识形态安全的日益关注,同时也意味着非官方媒体的言论空间也会越来越局限。张一鸣很可能认为只要将今日头条定位为“科技公司”,便可以相对自由。但《人民日报》很快就驳斥了他的天真。在上述提及的《人民日报》中评论道:“算法主导的时代,更需要把关、主导、引领的‘总编辑’,更需要有态度、有理想、有担当的‘看门人’。”

到了 2017 年,官方媒体对头条的批评愈演愈烈,从 9 月 18 日到 20 日,《人民日报》网站连续三天刊登了三篇文章,抨击今日头条以及推荐算法技术本身。透过这三篇文章《不能让算法决定内容》,《别被算法困在“信息茧房”》和《警惕算法走向创新的反面》,中共对推荐算法在中国媒体领域的运用表示强烈不满。而接收到这样的讯号之后,监管机构也开始介入今日头条和其它算法驱动的新闻应用程式。2017 年 12 月,北京市网信办约谈今日头条和凤凰新闻,以传播色情低俗信息、违背正确导向、无证经营网络新闻平台为由,对其批评并责令整改。两天后,今日头条关闭该应用中的社会新闻频道,取而代之的是“新时代频道”,并将其作为用户的默认频道,确保该频道宣传的新闻与中共的叙述相一致 (Sheehan, 2024)

所有这些对算法推荐技术的批评,背后反映了国家对算法在网络信息传播中作用的担忧。自 1949 年掌权以来,国家在很大上拥有对各种社会新闻报道“划重点”的权力,这种权力随着私有媒体和网站的兴起而面临挑战,但即使在这种情况下,要追责个人依旧不是难事。然而当今日头条将决策权交给了算法之后,推送给用户的内容从此符合的是用户兴趣,而非中共的兴趣,如此一来官媒和用户的权力关系便松动了 (Sheehan, 2024)。而权力关系是社会建构的基本要素,社会制度建构的依据就是掌权者的价值观和利益需求。权力可以通过强制或者操弄民众心中的象征意义来实现。前者以国家垄断暴力为代表,后者是通过改变人民的思想来实现更加稳固的权力关系。社会是由制度、规范和价值观组织起来的,人们的思考方式决定了社会的样貌。换句话来说,今日的权力网络主要是透过大众传播的多媒体通讯网络来影响我们的思维,进而发挥作用 (Castells, 2009)。而算法推荐技术无疑具有成为“武器”的潜质,这也就意味着它将威胁到了国家长期以来制定公共话语议程的能力,因此也解释了监管机构积极干预的原动力。最直接的表现便是《算法推荐规定》明确要求平台人工干预社交媒体上的热点话题列表,以确保它们反映政府的优先事项。同时法规中的将近 ⅓ 的条文都是针对在线内容规范,通过强制要求算法推荐服务提供商“坚持主流价值导向,积极传播正能量”,政府议程设置的权力才得以继续稳固。

在关注推荐算法的同时,政府也开始将深度伪造的假新闻视为对信息环境的一大威胁,并着手开始对其监管。深度合成指的是利用深度学习技术来产生文字、图像、声音、视频和虚拟场景等内容,换句话来说也就是今天我们所熟悉的生成式人工智能。《深度合成法规》同样旨在防止误导性或政治敏感性内容的制作和传播。首先,法规要求深度合成内容必须“坚持正确的政治方向”,“不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动”。其次,在深度合成内容可能混淆或者误导公众的时候,还需要在合理位置进行标识以提醒公众。最后,服务提供者还需要对用户进行真实身份信息认证,以便追责。这些规定都将成为中国监管生成式人工智能的基石。因为最新的《暂行办法》便在很大程度上重申和援引上述的条文,不仅如此,在这部法规中我们还可以观察到监管机构的态度转向。

亚“健康发展”

毋庸置疑,最近出台的人工智能法案无疑增加了中国科技公司的合规负担。然而,它们在实践中对于服务提供商的影响似乎有限。上述讨论中,我说明了三部法规的一个共同特点是强调内容控制,旨在确保生成式人工智能技术不会挑战中共对公共话语的控制。但迄今为止,这些法律都没有适用于追究中国人工智能公司的侵权责任。算法备案要求也没有明显阻碍大型人工智能公司提供面向公众的服务。虽然在《暂行办法》中规定“利用生成式人工智能产品向公众提供服务前,要按照《算法推荐规定》履行算法备案和变更、注销备案手续”。但在《暂行办法》发布仅两周后,包括商汤科技“商量”、百度“文心一言”、智谱 AI“智谱清言”等的 11 个人工智能产品就获得了网信办颁发的许可证。而在 2024 年 6 月网信办发布的《境内深度合成服务算法备案清单》中更是有 492 多个人工智能相关算法和应用获得服务许可。可以看出自 2023 年底以来,对生成式人工智能服务的备案要求已变得不那么严格。许多人工智能公司现在只需向网信办的地方办事处登记其安全评估,而无需在推出公共服务前获得许可证。这一转变标志着监管程序的大幅放宽,同时也反映出政府明确强调增长和创新优先于严格监管 (Zhang, 2024)。这一点也可以在《暂行办法》和最初的《征求意见稿》相比较得到验证。

与《征求意见稿》相比,《暂行办法》做出了重要修改,例如在适用范围上,明确排除了“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构,未向境内公众提供生成式人工智能服务”,强调了只有“对境内公众提供服务”才适用该条款,意味着如果基础模型提供商如果仅仅向垂直领域的 B 端提供服务则不在规定的范围之内。同时《征求意见稿》第二条“研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法”中的“研发、利用”也被删改,这些修改都旨在为科研提供一个相对自由的空间,凸显了中国政府对促进人工智能创新发展的重视 (Chen, 2024; Pi, 2024)

除了宽松的行政执法外,中国司法部门也遵守中国政府支持增长的指示,承认人工智能生成内容的知识产权。一个具有里程碑意义的例子发生在 2023 年 11 月底,当时北京互联网法院做出了一项判决,认定使用 Stable Diffusion 生成的图像有资格获得版权保护。法院强调,原告通过在 Stable Diffusion 模型中输入提示词、设置相关参数,并根据初步生成的图片又增加提示词、调整参数,这些都涉及一定程度的智力投入。法院认为这些输入具有足够的原创性,因此,法院得出结论:“人们利用人工智能模型生成图片时,不存在两个主体之间确定创作者的问题,本质上,仍然是人利用工具进行创作,即整个创作过程中进行智力投入的是人而非人工智能模型……人工智能生成图片,只要能体现出人的独创性智力投入,就应当被认定为作品,受到著作权法保护”。该案的主审法官朱阁在接受采访时也强调,司法要与立法者的价值选择一致。通过给予人工智能生成图像著作权,从而鼓励大家使用大模型进行创作。同时也能够让市场产生稳定预期,投入研发、优化服务,形成良性循环,推动中国人工智能技术的发展。

然而即使《暂行办法》释放出了刺激发展的信号,其中也存在一些阻碍发展的不足之处。同时这些不足可能让未来中国的人工智能治理进入“亚健康”状态。其病症可以概括为对生成式人工智能产业链中各参与者的责任分配不合理。首先,《暂行办法》广泛使用的是“生成式人工智能服务提供者”一词,这一用法将产业链中的不同参与者都“打包”统合在一起,例如芯片厂商、云计算服务提供商和软件服务提供者等等,然而这些不同的角色在产业链发挥的作用存在着巨大差异。如此一来,在法规实际执行过程中便会出现矛盾。例如,法规要求服务提供者应使用具有合法来源的数据和基础模型。而在实际情况中,那些采用 OpenAI 的 API 将 ChatGPT 集成到自身应用中的公司,也都被归类为服务提供者,需要遵守相关规定。但这些公司可能难以履行某些要求,因为他们往往无法控制所采用模型的训练数据和设计选择 (Pi, 2024)

其次,人工智能治理的一个关键挑战在于如何管理开源模型及其生态系统。服务提供商主要通过闭源 API 或开源模型两种模式提供服务,各有利弊 (Gan 等, 2023)。但在《管理办法》并未对“服务提供者”进行区别。从国家经济发展的角度来看,推广开源技术对加速中国整体技术进步具有重要意义,因为它能够使更多初创小型企业获得基础 AI 模型的访问权,从而创造共享知识基础。中国政府已经认识到开源模型的积极外部性,并通过资助等方式支持开源大语言模型的发展。然而,《暂行办法》关于开源提供商的具体规范存在空白,这导致了一定的模糊性。对开源和 API 提供商施加同等责任可能会无意中阻碍创新,因为开源提供商通常难以掌控其模型的下游应用。此外,开源社区参与者的贡献动机,一般是基于个人热情或建立声誉,往往缺乏资源来遵守严格的合规要求,由此过多的义务可能会造成合规负担。总结来说,如果过于严格的监管压力过多地落在那些应用基础模型的中小企业和初创公司身上,而不是拥有大量数据和算力的大型基础模型开发公司,难免会抑制市场竞争,进而对经济产生不利影响 (Chen, 2024)。除此之外,潜藏在中国式监管底下还有更多未知的风险和副作用。

是“药”三分毒

中国采取了相对宽松和商业友好的监管环境。这种策略可能在短期内为中国企业提供竞争优势,允许它们更快速地开发和部署人工智能服务。但这背后可能存在着几重风险。首先,这种优势可能是短暂的,特别是随着中国公司向国际市场扩张,它们必须适应海外更严格的监管标准,如《欧盟人工智能法案》。其次,宽松监管可能也会产生反效果。以前文图像生成的知识产权案例为例,虽然判决可能短期内推动中国的人工智能发展,但也可能引发一系列法律挑战,如增加版权纠纷。同时也可能导致人工智能生成图像大量出现,打击人类创作者积极性,导致高质量的人类原始创作减少,进而加剧人工智能产业已经面临的数据稀缺问题。

再者,对于中国的人工智能公司而言,宽松的监管信号并不能完全抵消合规压力,为了避免因为内容和数据问题陷入监管风波,这些公司不仅需要训练大语言模型会说话,同时也要训练其“察言观色”的能力,在不该说话的时候懂得沉默。这种自我审查的需要,势必会分散科技公司的部分研发精力和资源 (Triolo, 2023)。毕竟当用户想要的是答案,但得到的却总是“尊敬的用户您好,让我们换个话题再聊聊吧”,这样的体验恐怕难称得上愉悦。久而久之,用户杯葛国产大模型的决心,也势必越来越坚定。

最后,也是最重要的一点。中国通过严厉打击科技行业,塑造出了雷厉风行的形象,但又非常快速地转变为宽松监管。这种剧烈转变会给投资者带来很大的不确定性,他们需要小心猜测监管者的动机,也难免会产生误读或者过度解读的情况,导致微小的法规变化都会引发市场反应。在一次次危机和政府出手之后,国家和企业之间的信任关系也变得越来越难修复,政府公信力也在反复无常和不可预知的政策中流失。当然我们不难理解,这些监管措施背后是国家最高领导人、中共意识形态、监管机构、官僚体系和科技行业复杂互动的结果。但在这个互动网络中,权力显然是不对等的。也正是这种失衡,让国家每一次积极干预市场之后的结局不再是悬念,那便是引发更多难解的新问题。面对当前的平台已经日益基础设施化,科技巨头借由算力和云计算不断扩大其垄断权力的情况 (Ferrari, 2022; van der Vlist 等, 2024; Vipra & West, 2023),我们总希望寄托于国家监管能够成为“解药”,但如果缺乏健全的法治体系,似乎也难逃“是药三分毒”老祖宗的这句谆谆教诲。

未完待续

类似“维护人工智能安全”,“引导人工智能技术的健康发展”这样的表达,经常出现在中国的宣传话语中。然而,经过上述分析,浮现出来的却是一个亟需意识形态安全感,同时又处于“亚健康”状态的“中国方案”。在发展优先还是安全优先的路径选择岔口,中国通过对公共信息环境的绝对控制来满足安全需求,同时又因为面临着中美人工智能技术竞赛的压力,以及国内经济下滑的现实,不得不通过法规来释放出宽松监管的信号,从而刺激中国人工智能行业的发展。

发展人工智能对中国来说不仅是经济催化剂,同时也事关技术自立、国家尊严和全球竞争。但在这个过程中,由于监管机构对治理新兴技术经验匮乏,出现了对产业链各参与者的责任分配不合理的情况,以及政策波动过大的问题,从长远上看,这可能会导致阻碍中国生成式人工智能行业的健康发展。另外我们还需要意识到,在人工智能产业中,中国政府不仅是监管者和促进者,同时也是投资者和消费者,这双重身份的互动也深刻地形塑了当前的技术现实。不过这又需要一篇论文的笔墨了。

参考文献

Bird, C., Ungless, E. L., & Kasirzadeh, A. (2023). Typology of Risks of Generative Text-to-Image Models (arXiv:2307.05543). arXiv. https://doi.org/10.48550/arXiv.2307.05543
Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., Bernstein, M. S., Bohg, J., Bosselut, A., Brunskill, E., Brynjolfsson, E., Buch, S., Card, D., Castellon, R., Chatterji, N., Chen, A., Creel, K., Davis, J. Q., Demszky, D., … Liang, P. (2022). On the Opportunities and Risks of Foundation Models (arXiv:2108.07258). arXiv. https://doi.org/10.48550/arXiv.2108.07258
Castells, M. (2009). Communication Power. Oxford University Press.
Chen, Q. (2024). China’s Emerging Approach to Regulating General-Purpose Artificial Intelligence: Balancing Innovation and Control. Asia Society Policy Institute.
Cheng, J., & Zeng, J. (2023). Shaping AI’s Future? China in Global AI Governance. Journal of Contemporary China, 32(143), 794–810. https://doi.org/10.1080/10670564.2022.2107391
Ferrari, F. (2022). Forces of Neural Production: The Infrastructural Geography of Artificial Intelligence [Phdthesis]. University of Oxford.
Gan, W., Wan, S., & Yu, P. S. (2023). Model-as-a-Service (MaaS): A Survey. 2023 IEEE International Conference on Big Data (BigData), 4636–4645. https://doi.org/10.1109/BigData59044.2023.10386351
Goldkorn, C. C., Jeremy, & Che, C. (2021). China’s ’Big Tech Crackdown’: A Guide. 收入 The China Project.
Hendrycks, D., Mazeika, M., & Woodside, T. (2023). An Overview of Catastrophic AI Risks (arXiv:2306.12001). arXiv. https://doi.org/10.48550/arXiv.2306.12001
Huang, Y. (2023). Has the Chinese Economy Hit the Wall? East Asia Forum. https://doi.org/10.59425/eabc.1696802442
Park, P. S., Goldstein, S., O’Gara, A., Chen, M., & Hendrycks, D. (2023). AI Deception: A Survey of Examples, Risks, and Potential Solutions (arXiv:2308.14752). arXiv. https://doi.org/10.48550/arXiv.2308.14752
Pi, Y. (2024). Missing Value Chain in Generative AI Governance China as an Example (arXiv:2401.02799). arXiv. https://arxiv.org/abs/2401.02799
Sheehan, M. (2023). China’s AI Regulations and How They Get Made. Carnegie Endowment for International Peace.
Sheehan, M. (2024). Tracing the Roots of China’s AI Regulations. Carnegie Endowment for International Peace.
Triolo, P. (2023). ChatGPT and China: How to Think about Large Language Models and the Generative AI Race. 收入 The China Project.
van der Vlist, F., Helmond, A., & Ferrari, F. (2024). Big AI: Cloud Infrastructure Dependence and the Industrialisation of Artificial Intelligence. Big Data & Society, 11(1). https://doi.org/10.1177/20539517241232630
Vipra, J., & West, S. M. (2023). Computational Power and AI. AI Now Institute.
Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, P.-S., Mellor, J., Glaese, A., Cheng, M., Balle, B., Kasirzadeh, A., Biles, C., Brown, S., Kenton, Z., Hawkins, W., Stepleton, T., Birhane, A., Hendricks, L. A., Rimell, L., Isaac, W., … Gabriel, I. (2022). Taxonomy of Risks Posed by Language Models. Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, 214–229. https://doi.org/10.1145/3531146.3533088
Zhang, A. H. (2024). The Promise and Perils of China’s Regulation of Artificial Intelligence (4708676). https://doi.org/10.2139/ssrn.4708676