可生成文本、绘制图画的人工智能(AI)工具已然成为芯片厂商的热议话题。相比英伟达、谷歌、英特尔等传统芯片巨头,市场开始更多关注该领域的AI芯片初创公司。

近日,IDC亚太区研究总监郭俊丽称,以算力每一百天翻一番计算,预计5年之后,整体AI算力将增长超过一百万倍,并推动相应的算力、基础设施和芯片市场增长。


(相关资料图)

英国AI芯片独角兽Graphcore正是此一轮风口中的主要标的公司。Graphcore提供专为AI计算设计的软件和硬件,其AI芯片被称为“IPU”,很适合那些通过消除不必要的参数来降低计算成本,提高计算速度的计算。

Graphcore总裁兼大中华区总经理卢涛告诉界面新闻,对于AI芯片公司而言,大模型的意义在于两点:一方面算力需求更大,无论是做计算机视觉还是自然语言理解,不同垂直领域的AI大模型之间技术会有相似性;另一方面计算范式正在发生迁移,从以CPU为核心变成AI计算为核心的时代,原有的芯片产业主导者将从舞台中央退至边缘。因此,所有半导体公司需要跟上AI的发展求新求变。

针对AIGC应用,Graphcore已提出相应解决方案,称其IPU加速计算卡C600可保证较低的延迟和能耗,同时具有能够快速迁移模型和软件栈易用性特点,有利于提供更高效的服务、降低模型部署和运行成本。例如在GPT2-XL模型上,C600推理延时已经达到1ms/token的水平,功耗仅为30瓦。也因此,降成本是其面向AI应用的主要卖点。

Graphcore向界面新闻展示的技术Demo显示,相比传统ChatGPT聊天机器人一字一字“蹦”出文字回答,基于Graphcore IPU的ChatGLM-6B聊天回复更快,实现了几百个字一秒内显示的“刷屏”式回复。

在如火如荼的AI计算市场上,英伟达凭借GPU(图形处理器)最先把握住了机会,成为AI企业不可或缺的芯片供应商,A100和H100系列GPU成为市场优先选择的AI芯片产品。

卢涛告诉界面新闻,IPU架构与GPU不同,在芯片核心数、存储和芯片带宽上均有差别,在保证上千个处理核心同时工作上有自己的理解,这决定了应用上最终会存在差异化表现。但他坦言,一个产品不可能在所有方面都领先,在一些功能特性上,客户会更喜欢IPU。

卢涛称对竞争对手充满敬意,“即使我们每年100%扩张资源,大公司增加1%的资源就比我们要多,所以想在大规模的全面PK中胜出基本是不可能的。”他称在目前竞争环境下,Graphcore需要保持的就是聚焦和定力,经过一定时间后最后实现突破。

云服务商拥有广泛客户群,对新型芯片选择持开放态度,但对于初创企业而言,与巨头企业同处一个舞台,竞争仍遍布荆棘。“客户要求很高,既要求性能也要求性价比,还要比英伟达有独特的价值,”卢涛称,“客户总是对的,他就这样期望,你必须要有这个认知,认可它才能想出解决办法,不能总有抵触心理。”

与英伟达力推AI云服务类似,Graphcore今年也转变思路,通过云厂商向客户提供算力。卢涛称,目前Graphcore英国总部有几家紧密合作的云厂商,以云产品形式来提供Graphcore实例,基本不再以单独硬件产品对外销售。

卢涛表示,在中国云端市场,Graphcore与金山云和腾讯云合作,目前与另一家大型云厂商公司也在进行合作细节规划中。但他强调,Graphcore针对中国市场有独立业务策略:“Graphcore在中国仍以一个算力产品的提供方出现,主要策略还是聚焦在一些大型商业公司需求,即最终以销售硬件,客户自己安装产品的形式来落地。”他表示,对于中国的广大中小客户,还是坚定走被集成策略。

(文章来源:界面新闻)

推荐内容