(资料图片仅供参考)
我们已经迈入了一个高度智能化的时代。近年来,ChatGPT等人工智能(Artificial Intelligence,AI)应用不断带来惊喜。面对各种问题和需求,人工智能之所以能够表现出“智能”,一个很重要的原因是其背后有着强大的计算资源作为础支持。基于这些计算资源,可以训练出高质量的人工智能模型,帮助人们解决问题。因此,如何充分运用好超大规模的计算资源,就成了人工智能时代亟需解决的重要基础问题。
近年来,来自北京大学计算机学院、人工智能研究院的青年学者,关注面向人工智能的基础系统软件这一领域,组成研究团队,开展联合研究,连续发表高质量学术论文并多次获奖,取得了重要的学术研究进展,而且成果在工业界开展了大规模实践,产生了积极的产业影响。
01 实现系统软件“根”的突破
当前以深度学习为代表的人工智能,本质上是一种数据驱动的智能,首先要从大量的数据中“学习”出一些规则生成一个模型(称之为模型训练),然后要运用这些规则来解决问题(称之为模型推理)。如果做个比喻,可以粗略地把模型训练过程当作“看例题”,把推理过程当作“写作业”。人工智能可以做到在边看例题的同时边写作业。不过,用多少精力看例题,用多少精力写作业,以及这些精力如何分配得合理、高效和经济,就不再是人工智能自身能够解决的问题,而必须要依赖底层的系统软件来调度算力资源为其赋能和提供支撑。