新一轮人工智能飞速发展,如何平衡发展与安全成为此次发展过程中的一道必答题。

8月1日,南财合规科技研究院与观韬中茂律师事务所推出《中国AI治理的独立思考——生成式人工智能发展与监管白皮书》(以下简称白皮书),通过分析生成式AI的发展现状、政策导向、实操中面临的风险,以及各国的监管路径,以期为未来的AI治理提供有益思路。


(资料图)

生成式AI技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。生成式AI本质在于“创造未知世界”。

大模型是本轮生成式AI竞赛的杀手锏。各个科技公司加码大模型,上演“百模大战”。白皮书梳理了来自互联网公司、AI公司、科研院所、教育行业、车企等发布的超过30个大模型。此外,白皮书还梳理了当前接入类ChatGPT技术应用,将其整理为办公软件、社交文娱、商业营销、家庭助理、智慧医疗六大类,并具体细分为16个应用方向。

白皮书指出,生成式AI当前主要面临四大类风险:一是知识产权侵权风险,需要关注著作权侵权、商业秘密侵犯、不正当竞争和反垄断风险;二是算法风险,面临算法黑箱、算法歧视、算法决策、算法失真风险;三是数据安全与个人信息保护风险,需要考虑个人信息保护、数据跨境风险、数据安全风险等问题;四是伦理道德风险,需要关注生成式AI发展过程中带来的偏见、刻板印象、歧视等问题。

值得关注的是,白皮书梳理了欧盟、美国的人工智能监管框架,以期为中国人工智能治理思路提供参考。

白皮书指出,美国其未在联邦或者州层面制定相关的法律文件来规制生成式AI的应用以及其可能带来的风险,而是采取以美国国家标准与技术研究院的《人工智能风险管理框架》(以下简称框架)为主引导实践的治理框架,框架概述了可信的人工智能系统的特征,即可解释性、透明度和问责制。美国关于生成式AI应用的治理框架反映了其对于创新技术的一贯态度,即鼓励科技发展,着力保持自身在全球科技创新中的领导地位

欧盟略显保守,其采用了以人工智能法案为主的风险分级监管治理框架,将人工智能技术可能对人的健康和安全或基本权利造成的风险程度分为四个级别:不可接受的风险、高风险、有限风险和最小风险,并分别采取不同的限制措施

具体到中国来看,白皮书指出,“发展”正逐渐成为中国AI治理的第一视角。中国在7月发布了《生成式人工智能服务管理暂行办法》,提及“坚持目标导向和问题导向”,单设了“技术发展与治理”章节,同时也新增了不少有力措施来鼓励生成式AI技术发展,如探索优化应用场景、加强基础技术自主创新、推动公共训练数据资源平台建设、豁免责任等。

针对生成式AI商业化中出现的一系列风险,开发者又该如何应对?白皮书亦给出了答案。

白皮书提出了以风险控制为核心目标导向的AI风险治理框架风险治理框架的核心为风险识别-风险度量-应对策略-控制措施。

风险识别:关注知识产权、算法、数据安全以及个人信息等方面带来的风险。同时提醒关注未知风险。

风险度量:典型的风险衡量方法需要开发者将测量或估计的影响和影响可能性相乘或定性组合为风险评分(风险≈影响x可能性)。试图完全消除负面风险在实践中可能适得其反,因为并非所有事件和风险都可以消除。

应对策略:开发者针对已识别的生成式AI商业化应用风险的应对治理模块,目前包括以下模块:协议安排、内部政策、技术性限制、数据治理、动态测试及评估、透明度实践等。

控制措施:依据风险应对策略,确定的具体风险控制节点,需要开发者内部具体落实的措施。

此外,生成式AI应用风险事件库也是一个值得借鉴的行业实践。AI风险事件数据库通过整理和分析生成式AI商业化应用的开发和部署在现实商业领域中造成的或可能造成不良后果或者损害的情况,形成相应数据库。

(文章来源:21世纪经济报道)

推荐内容