人工智能公司OpenAI日前宣布,公司将开放ChatGPT和Whisper的模型API。

“OpenAI开放API接口,意味着其他需要通过自然语言处理应用的公司可借助该平台开发,不需要再做基础的指令研究及训练,这大大降低了前期开发成本,利好整个产业发展。”艾文智略首席投资官曹辙接受《证券日报》记者采访时比喻称,“这就相当于别人‘搭好底座’,不同的应用公司根据自己的需求建不同的房子。”

API接口开放带动算力需求


(资料图)

API即应用程序接口,可以通过调用被外部使用,这意味着ChatGPT可以接入各类软件。OPenAI总裁兼董事长Greg Brockman表示,ChatGPT的API由自然语言大模型“GPT 3.5 Turbo”支持。取名为“Turbo”,代表的是从GPT-3.5优化后反应时间更快的版本,并进一步缩减了成本。

业内人士接受《证券日报》记者采访时表示,ChatGPT模型的API开放之后意味会有大量的公司在此基础上开发自己所需要的应用程序,带来巨大的算力需求,将利好产业链上的相关公司。

面对这一机遇,“产业链公司掌握GPT-3.5-turbo模型的应用方法和技术规范后,可以结合企业的自身产品,打造更多增值服务,为客户提供更好的体验和效果。”Co-Found智库秘书长张新原告诉《证券日报》记者。

不过,全联并购公会信用管理委员会专家安光勇表示,这一行动也存在一定挑战。开放ChatGPT模型的API将进一步加剧国内自然语言处理领域的竞争,一些较小的公司可能无法承受高昂的模型使用费,从而面临被淘汰的风险。此外,由于模型开放,存在一定的风险和安全隐患,如模型被滥用、模型训练数据泄露等。

上市公司积极布局

OPenAI开放ChatGPT模型API的消息即刻引发了广泛关注。投资者互动平台上多家上市公司被询问是否准备接入这一接口。而在记者采访中,“算力需求大增”是上市公司普遍谈及的问题。

“OPenAI开放ChatGPT模型的API后,市场对算力的持续需求将成为必然。这股热潮将带来市场对计算能力和数据中心服务的指数级增长。”秦淮数据相关负责人对《证券日报》记者表示。

算力需求的猛增也对数据中心提出了新的要求,据秦淮数据相关负责人介绍,由于数据中心建设周期的滞后性,能够容纳更多超算服务器的高密度数据中心是目前应对算力爆发式增长的最优解决。“未来,秦淮数据等数据中心企业将在算力提升和高密度数据中心建设方面发挥更加重要的作用,进一步推动数据中心产业的发展。”

首都在线方面同样表示,OPenAI开放模型,为类人工智能应用的发展提供了加速器。随着越来越多的应用程序搭载上人工智能技术,算力的巨大需求将被激发,这也为公司提供了巨大的发展空间。

“其实大规模算力需要的是数据中心、GPU服务器、低延时网络等完整的体系支撑。”首都在线副总裁牛继宾对《证券日报》记者表示,“这些支撑要素与首都在线战略选择的方向高度一致。”

(文章来源:证券日报)

推荐内容