3月底,非营利组织未来生命研究所发表一封公开信,呼吁暂停研发比GPT-4更强大的人工智能(AI)系统至少6个月。公开信获得了千余名该领域专家、科技人员、产业高层的签名,其中包括中国科学家曾毅。

作为联合国教科文组织人工智能伦理特设专家组专家,曾毅也是中国科学院自动化研究所研究员、人工智能伦理与治理中心主任。当下的人工智能亟需解决哪些负面影响?身为AI技术和伦理专家,为何会在这封引发空前关注的公开信上签名?围绕这些话题,本报记者与曾毅进行了对话。

文汇报:您为何认为暂停6个月AI大模型研发是必要的?如何看待此次辛顿用离职发出的AI警告?


(资料图片仅供参考)

曾毅:生成式AI大模型的发展速度可以在几周内将潜在风险转变为实存风险,不负责任地研发和使用AI可能在短期内对社会造成显著而急迫的风险。

眼下,人工智能企业都在布局大模型,但很少有人说如何去防范风险。正因为我们对AI潜在的风险还没有完全准备好,但已经开始过早且过于激进地尝试,所以我觉得暂停6个月是必要的,先去解决一些潜在风险,先好好思考一下。当然,6个月只是一个倡议,是一个可以尝试的时段,能够取得一定效果肯定比不做准备要强得多。但是,6个月之内是否能够充分思考相关风险,并做到防范?我觉得这是不够的。

我认为,应对AI潜在威胁与应对气候变化危机并不存在重要性的差别,AI带给人类的挑战可能更紧迫。而且,AI技术每往前发展一步,人类对于伦理安全方面的考虑也需要前进一步。AI治理对其未来发展而言已经不是一道选择题,而是必答题。

文汇报:人类历史上有过很多次由新技术诞生而引发的危机时刻,您认为此次生成式AI给人类带来的影响和以往一样吗?

曾毅:生成式AI技术有能力合成虚假信息,极大降低了社会信任,该项技术的滥用、恶用,使得现今眼见、耳听都难以为实。这对于人与社会之间的关系提出了前所未有的挑战。从长远来看,生成式AI大模型等技术正在试图模糊人与AI之间的界限。

现阶段的AI只是看似智能的信息处理工具,并不具有真正的理解能力和真正意义的智能。它可以用来辅助人类决策,却不能代替人类决策,因为它并不是责任主体,也不具有生命。然而,诸多应用领域正在尝试用其替代人类,无法作为责任主体的AI工具被错误地赋予责任主体的责任与义务,这将对人类与社会发展产生深远而广泛的影响。

文汇报:您认为人类有可能始终掌控AI,让它永远只作为工具存在吗?要实现这一目标,人类有哪些手段?

曾毅:我们没有选择,对于作为工具的AI,我们必须竭力做好伦理安全框架、测试和负责任的部署,同时引导AI赋能可持续发展目标的实现。目前,AI赋能的实践主要在教育与健康领域,因为这两个领域有更明确的经济收益。而对于一些全球性的议题,例如生物多样性保护、气候变化、公平公正等对于人类的生存与发展极为重要的问题,AI的贡献微乎其微,这是人类使用AI这一工具时必须意识到并采取行动的。

我们应从制度建设和技术护航两方面引导AI向善。从制度建设与实践角度讲,制定伦理安全原则、规范及相关立法是必要的社会保障。从技术护航角度看,通过AI技术实现伦理安全关切,落地法律法规要求,并根据目前的技术瓶颈及时与制度建设互动,实现敏捷自适应治理是关键所在。

文汇报:在您的设想中,未来人类与AI应当是一种什么样的关系?

曾毅:现在,AI正以一种试探、尝试的方式去改变社会,人类社会则是以一种被动的姿态去应对,而不是我们所期待的主动去迎接技术变革,更多人是疲于应对。

如果把技术发展脉络放到更长的历史当中来看,人类应该回归其自身的位置,从事更多具有创造性的、情感交互的工作。比如在家照顾孩子和老人,关爱社会中的年长者和弱势群体,这些工作恰恰是AI最难替代的。在城市发展中,有必要给人留出没有必要使用AI的空间,并且让人们可以有选择权,决定使用或者不用这项技术。

文汇报:不少专家认为,AI最大的影响在于教育。在您看来,AI时代应培养孩子的哪些能力?

曾毅:现在有很多家长非常焦虑,总是在想我的孩子是不是应该尽早地接触人工智能。在我看来恰恰相反。如果真的学有余力的话,让孩子去学一门心理学,接触认知心理学的基础,让他对人本身有更多的认识——人类的智慧到底是怎么回事?我们的内心是什么样的?人如何为人?事实上,生成式AI让人更明白“何以为人”。因此,我觉得孩子们有必要学点哲学,在年轻的时候就去思考这些问题

推荐内容