从应用到算力,ChatGPT 点燃基础设施需求
太平洋证券指出,OpenAI 使用的大模型训练成为未来发展趋势,而训练任务中使用的算力呈指数级增长,催生了更高的算力的需求。
ChatGPT 火爆出圈,发布仅 2 个月就吸引了 1 亿用户,今年 1 月网站访问量达到 61600 万人次,成为历史上增长最快的消费应用。
在庞大用户群涌入的情况下,ChatGPT 服务器 2 天宕机 5 次,火爆的同时也催生了对算力基础设施建设更高的要求。
周二,太平洋证券在最新的报告中分析了 AI 的三层架构架构,指出 OpenAI 使用的大模型训练成为未来发展趋势,而训练任务中使用的算力呈指数级增长,催生了更高的算力的需求。
AI 产业三层架构
太平洋证券分析师曹佩指出,AI 产业主要包括基础层,技术层,应用层三层架构。
其中,不同芯片类型为 AI 服务器提供了底层硬件基础,应用于计算机视觉,机器学习等领域,可以提供超过 30TOPS 的训练算力。
- CPU 满足逻辑判断,任务调度与控制等基本计算任务;
- GPU 适用于通用并行计算,能够为 AI 训练任务提供更高算力;
- FPGA 具有低延时,开发周期短等特性,可用于 AI 推理任务等;
- ASIC 与通用集成电路相比功耗更低性能更优,可用于针对 AI 训练任务设定特定框架。
技术层面,OpenAI 使用的大模型训练成为未来发展趋势。
训练模型方面,OpenAI 主要应用大模型进行 AI 的训练,大模型目前已经成为应对 AI 领域碎片化的一种方式。在大模型之上,人工智能架构还包括多种上层应用,如相应的 AIGC 技术应用等。
AI 带动算力新需求
根据太平洋证券介绍,人工智能三大要素主要包括数据,算法,以及算力。
- 由于机器学习中的监督学习和半监督学习都要用标注好的数据进行训练,数据标注是人工智能产业的上游产业;
- 算法方面,当前最具代表性的深度学习算法模型有深度神经网络、循环神经网络、卷积神经网络。其中深度神经网络和循环神经网络是深度学习的基础。
- 算力是算法和数据的基础设施,算力大小决定了数据处理能力的强弱,芯片则是决定算力的硬件基础。
其中,OpenAI 带动算力新需求。OpenAI 的研发主要依托 AIGC(利用人工智能技术来生成内容)技术。根据 OpenAI 近日发布的数据,自 2012 年以来人工智能训练任务中使用的算力呈指数级增长,其增长速度为每 3.5 个月翻一倍。截止目前人们对算力的需求已增长了超过 30 万倍,摩尔定律已然失效。
近年来,我国算力规模保持持续增长态势,经信通院测算 2021 年我国计算设备算力总规模达到 202EFlops,增速约 50%,高于全球增速。
《新型数据中心发展三年行动计划(2021-2023 年)》强调到 2023 年底,全国数据中心机架规模年均增速保持在 20% 左右,平均利用率力争提升到 60% 以上,总算力超过 200EFLOPS,高性能算力占比达到 10%。国家枢纽节点算力规模占比超过 70%。此外,计划还提出新型数据中心应具备高技术、高算力、高能效、高安全等特征。太平洋证券指出,“四高” 已经成为未来数据中心的必备条件,而相应的服务器市场或将迎来较快增长。
AIGC 技术应用场景广
太平洋证券指出,AIGC 产业链覆盖范围较广,从产业链角度来看:
- AIGC 产业链上游主要由数据供给方,数据分拆及标注,创作者生态,底层配合工具等构成;
- 中游主要包括内容设计,内容制作工具,周边售卖,运营增效,个性化市场营销等垂直赛道公司;
- 下游主要包括各类内容创作及分发平台,第三方分发渠道,内容终端生产厂商,消费品厂商等。
AIGC 下游应用场景主要分为内容领域和拓展领域:
- 内容领域,AIGC 可用于直接生产可消费内容,如有声书等;制作内容辅助生产工具;或基于生成内容进一步变现。
- 拓展领域,AIGC 可用于个性化内容营销,合成数据生成,基于复刻的个人永生,实时交互性内容,以及特定场景服务等。
本文主要摘取自太平洋证券《从应用到算力,ChatGPT 点燃基础设施需求》