ChatGPT背后的核心竞争力:芯片
人工智能技术不断发展,继AlphaGO之后,ChatGPT又在全世界掀起了一波AI热潮。
最近大家都被这个软件反复刷屏,当我们都以为ChatGPT的开发公司Open AI赢麻了的时候,其实真正赢麻的却另有其人。
赢家另有其人
回望人工智能发展历程,AI技术主要得益于算法、数据和计算能力三方面的突破。芯片为复杂的计算任务提供了有力的支撑,也是算力的保障。
ChatGPT作为人工智能的产物,运行条件自然离不开算法、算力和数据。
数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7-8个投资规模30亿、算力500P的数据中心才能支撑运行。
ChatGPT对于强大算力的需求就等于对高端芯片的需求。
OpenAI CEO Sam Altman也曾表示,ChatGPT处理用户查询的每笔成本约为2美分,这是引入和使用英伟达AI芯片所需的成本。
证券公司也帮我们算了一笔账,为了支撑如此强大的算力消耗,ChatGPT需要1w颗以上英伟达GPU A100芯片,一次模型训练成本就超过1200w美元。
今年年初至今,英伟达股票已经涨超55%。
要知道从去年Q3开始英伟达营收就在走下坡路,但随着超大型人工智能需求的增加,英伟达的营收也有望获得大幅增长。
人工智能背后的芯片
第一种是CPU。CPU可以拿来执行AI算法,但是因为体系结构和逻辑限制,很难满足高吞吐量和低时延计算的要求。用于AI计算性价比较低。
第二种是GPU。诞生于英伟达的GPU最初确实主要应用于图形渲染,这是在后来科研和应用中逐渐用于AI计算领域。GPU拥有较强的并行推算能力,能够支撑强大的算力需求,目前主要用于加速。
第三种是FPGA。可对芯片硬件层进行灵活编译,且功耗远远小于CPU和GPU。
第四种是ASIC。主要是定制专用的AI芯片,可以在芯片架构和电路上进行优化,用来满足特定的应用需求。性能高、功耗低,但成本也较高。
芯片是竞争壁垒
2月7日,谷歌官宣了ChatGPT竞品Bard,并发布演示Demo。2月8日,微软上线了ChatGPT版Bing+Edge。
国内也传出消息,阿里达摩院正在研发类ChatGPT的对话机器人,目前已开放给公司内员工测试。预测其他大厂也会陆续跟进研发相关产品。
可以预见的是,ChatGPT势必会引爆一波AI芯片的热潮,这一次赢的不仅只有Open AI和英伟达,国内一众芯片厂商或许也能分上一杯羹。
从芯片卡脖子至今,字节跳动、百度、腾讯、阿里等大厂已陆续入场AI芯片领域。放眼国内,还有寒武纪、燧原、壁仞、景嘉微、澜起等GPU/AI芯片企业。
无论是AI芯片领域,还是其他芯片领域,大家都希望国内芯片企业能够抓住每一次机遇,交出一份令人满意的答卷。
#ChatGPT##芯片##ASIC#