当前位置:

网站首页    行业新闻    国内外AI治理政策分析及启示建议
创建时间:2023-12-07 08:47

国内外AI治理政策分析及启示建议

作为引领科技革命和产业变革的战略性技术,人工智能成为国际竞争新焦点,自2016年以来,中国、美国、欧盟等国家或地区陆续发布人工智能发展和治理相关政策法规。2022年,以ChatGPT为代表的生成式人工智能引发新一轮人工智能革命,其可能引发的生成虚假有害信息、侵犯知识产权等风险再次引发全球对人工智能治理的关注。本文通过介绍对比中国、美国和欧盟截至目前在人工智能治理中的不同思路与做法,以及进一步对政策发展作出展望,为我国完善人工智能治理政策体系提供思考与建议,为电信运营商在人工智能治理领域贡献力量提供思路。

 

 

我国AI治理政策现状分析

 

 1. 治理体系:顶层设计持续完善,夯实治理基本框架 

围绕AI治理,我国持续加强和完善顶层设计,密集出台一系列监管政策,筑起AI治理基本框架。2017年,国务院发布《新一代人工智能发展规划》,提出三步走的战略目标,覆盖AI理论和技术、产业发展、伦理规范等领域。2019年,《新一代人工智能治理原则——发展负责任的人工智能》、《新一代人工智能伦理规范》陆续出台,前者提出了AI治理的框架和行动指南,后者强调将伦理道德融入AI全生命周期。为应对数据和算法应用带来的风险,2021-2022年,我国密集出台了《数据安全法》、《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》等多部政策文件。2023年,为促进生成式AI健康发展与规范应用,网信办等七部门联合发布《生成式人工智能服务管理暂行办法》。至此,我国AI治理框架已初具雏形,《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》形成AI监管的“三足鼎立”之势,与《网络安全法》、《数据安全法》、《个人信息保护法》等共同构筑起当前AI治理基本框架。

 2. 治理方式:法律与标准并举,加速落地治理举措 

政策层面上,我国进行AI治理的手段是“规范立法”与“标准化建设”双管齐下,相关治理举措正加速落地。立法监管方面,我国走在世界前列。2022年,国家层面科技伦理治理的第一个指导性文件《关于加强科技伦理治理的意见》出台,要求在“十四五”期间重点加强AI、生命科学、医学等领域的科技伦理立法研究,及时推动将重要的科技伦理规范上升为国家法律法规。2023年,人工智能法草案被列入国务院2023年立法工作计划,同年7月,我国发布了全球范围内针对生成式AI的首部专门立法——《生成式人工智能服务管理暂行办法》。相比立法监管,AI治理标准更具灵活性和适应性,能够有效推进落实AI治理,同样受到我国重视。2020年,国家标准化委员会等五部门联合发布《国家新一代人工智能标准体系建设指南》,指导AI领域标准体系建设,并将安全/伦理标准作为核心组成部分。2021年印发的《国家标准化发展纲要》再次强调在AI领域开展标准化研究。

 3. 治理思路:发展与安全并行,体现中国治理思考 

在治理实践中总结经验,我国探索出了坚持发展与安全并行的中国式治理之路,既支持和鼓励AI创新发展,又针对潜在风险进行规制。先前发布的《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》均以安全为导向,致力于通过制定规则和限制措施来控制技术应用的风险。最新发布的《生成式人工智能服务管理暂行办法》则提出坚持发展与安全并重、促进创新和依法治理相结合,强调实行包容审慎和分类分级监管,相比之前发布的征求意见稿,在多处放宽了监管要求,新增鼓励发展的有力措施。《办法》体现了监管生成式AI的中国探索与思考,坚持发展与安全并行的中国式治理思路也为全球AI治理开辟了新道路。

 

 

美国和欧盟AI治理政策对比分析

 

 1. 美国:以发展为导向开展AI风险管理,力争保持全球领头羊地位 

(1) 重发展轻监管

相比于监管,美国更关注AI产业的创新发展。早在2016年,美国密集发布《为人工智能的未来做好准备》、《国家人工智能研究与发展战略计划》等,将AI提至国家战略的高度,此后持续表现出鼓励发展的态度,从资金投入、资源开放、人才培养等各方面给予政策支持。而直到2020年,美国才开始陆续发布治理为主的政策文件,如《人工智能监管原则草案》、《在联邦政府中促进使用可信赖的人工智能》等,但相关政策并不强调严格监管,避免因强监管阻碍AI创新发展。

(2) AI监管尚未全面立法

美国目前尚未完成AI监管全面立法,相比于出台具有极强约束力的法律文件,更侧重于提出AI监管原则和框架,如2020年发布的《人工智能应用监管指南》提出10项AI监管原则,2022年发布的《人工智能权利法案蓝图》提出负责任地使用AI路线图,2023年发布的《人工智能风险管理框架》提供了可参考的AI风险管理框架。2023年9月,美国第一个严格、全面的立法蓝图——《两党人工智能立法框架》被提出,尚未被国会通过。

 2. 欧盟:以安全为导向开展AI监管立法,抢占全球伦理规则主导权 

(1) 强调制定用于AI监管的法案

欧盟作为偏重国家间统一规范的组织,期望制定明确的法案来对AI进行监管。2016年以来,欧盟围绕AI先后出台多部强调监管、数据规范、边界的政策文件。2021年,欧盟委员会提出全球首部监管AI的法律草案——《人工智能法案》,旨在为AI引入一个共同的监管和法律框架,此后该法律草案经多轮修改,近期又针对横空出世的生成式AI不断完善内容,预期2024年前后通过。

(2) 采用风险分级监管治理框架与全过程风险控制体系

《人工智能法案》采用分级分类的风险规制路径,将AI系统可能引发的伤害人类安全、基本权利的风险划分为四个等级,分别是极低风险、有限风险、高风险和不可接受的风险,不同级别对应不同的监管措施,如完全禁止不可接受风险、重点限制高风险等。此外,《人工智能法案》针对高风险AI系统进入市场前后的完整流程进行了风险规制,覆盖范围包括设计开发、研发设计、产品评估、注册、CE标志、产品监测,如在设计开发阶段建立和维护风险管理系统、入市后建立和记录售后监测系统等。

 

 

我国AI治理政策发展建议

 

 1. 生成式AI将受到更多关注,建议进一步完善相关治理政策 

生成式AI存在的生成虚假有害信息、泄露隐私数据、侵犯知识产权等风险对AI治理提出新挑战,各国正加速出台相关合规监管类政策,目前我国政策落实较快,后续需进一步完善对生成式AI的治理政策,如重视数据安全与知识产权保护,加快完善畅通数据资源大循环的政策基础,降低数据泄露风险,积极探索AI生成内容的知识产权保护规则、可靠性评估监测标准等。

 2. 全球AI治理合作将持续深化,建议积极参与共建全球性AI治理政策 

大模型的出现标志着AI发展跨越拐点,国际间的数据合作、数据流通共享范围将更大更广,推动全球持续携手向着“发展安全可靠、造福人类的AI”迈进。近日中央网信办发布《全球人工智能治理倡议》,就各方普遍关切的AI发展与治理问题提出建设性解决思路,为相关国际讨论和规则制定提供蓝本,反映出我国成熟的AI治理经验,展现出我国推动完善全球治理的大国担当。建议未来持续重视增强国际发声与影响力,深度参与全球AI治理,积极将具有中国特色的治理思路、经验做法融入国际方案,为制定具有广泛共识的国际AI治理框架和标准规范持续注入中国智慧。

 3. 行业企业将成为影响政策制定的重要因素,建议支持鼓励行业协同参与治理 

政策有效制定需从AI落地应用的实际问题出发,如数据流通共享、大模型算法备案等,将需要行业企业、产业专家等提供丰富行业信息。近期由国家互联网应急中心、北京智源研究院、阿里云、华为等单位发起了人工智能安全治理专业委员会,建议重视其发展,鼓励AI领域的产学研单位积极参与,通过对接政府机构为政策制定建言献策,以行业协同方式探索AI治理新模式。电信运营商作为AI产业链的重要参与者,应充分发挥自身在云网融合、AI安全、产业经验等方面的优势及产业影响力,牵头发起或作为主要成员参与AI治理相关行业组织,开展安全技术创新、治理问题研讨、行业自律公约制定等,聚力形成参与治理的强大行业力量。

 


来源:天翼智库