服务热线
0516-67069909 

人工智能行业深度报告:ChatGPT引发的大模型时代变革

栏目:行业动态 发布时间:2023-03-23

1 引言

ChatGPT 是由 OpenAI 研发的一种语言 AI 模型,使用上亿参数的大模型和海量语 料库来生成语句,目前可以实现写诗、撰文、编码的功能。ChatGPT 广受用户欢迎, 短短五天注册用户数量便超过 100 万,60 日月活破亿。产业界如微软、谷歌、百度 也对于 openAI 及其竞品加大投入。


2 ChatGPT 引发人工智能投资热潮

2.1 ChatGPT 是什么?


ChatGPT 是由 OpenAI 研发的一种语言 AI 模型,使用海量语料库来生成与人类相 似的反应。ChatGPT 是基于 GPT(generativef pretrained’ transformer)架构搭建的, 主要用深度学习来生成连贯且具有意义的文字。这个模型使用了来自于网站、书本和社 交媒体的海量文字数据,因此也为 ChatGPT 在保证准确性和细节的同时,提供了广泛 的对话反馈。对话反馈是 ChatGPT 的核心功能之一,也使它成为了实现聊天机器人或 其他对话型 AI 的理想技术。除对话功能外,ChatGPT 也具有实现各类语言相关任务的能力,包括文章精炼、翻 译以及情绪分析等。以上各类语言能力在大规模的训练数据和升读学习架构下,使 ChatGPT 成为目前应用最为先进的语言模型之一。总体上,ChatGPT 标志着自然语言处理(NLP)和对话 AI 领域的一大步,其高质 量文字产出能力在商业、研究和开发活动中提高用户体验的方向上非常有应用价值的。


图片






截至目前,GPT 已经经历了如下演化:1. GPT-1: 第一代 GPT 语言模型,发布于 2018 年。它有 1.17 亿个参数,使用网页 的文字数据进行训练。2. GPT-2: 发布于 2019 年,具有 15 亿个参数,使用的网页文字数据量也远大于前 一代。它已经可以生成高质量的文字,甚至完成翻译、精炼文字等简单任务。3. GPT-3: 发布于 2020 年,具有 1750 亿个参数,使用网页以及其他来源的文字进 行训练。它已经可以进行担任各类任务,被认为是语言模型领域的显著突破。


2.2 ChatGPT 技术和传统的 AI 有什么区别?


相比传统 AI 算法,GPT 模型的区别在于通过海量参数,进一步提升了模型的精确 度。初代的 GPT 模型参数是 1.17 亿,而 GPT2 的模型有 15 亿个参数,参数增加了 10 倍之多。第三代的 GPT3 模型,参数达到了 1750 亿,是 GPT2 参数的 100 倍。正是由 于参数的指数级提升,使得模型的使用效果大幅提升。而此类参数上亿的模型,通常称 之为“大模型”。GPT 模型基于 Transformer 架构,这是一种由谷歌的 Vaswani 等人于 2017 年引入 的神经网络类型。Transformer 架构特别擅长对序列数据中的长距离依赖进行建模,这使 其非常适合自然语言处理任务。为了训练 GPT 模型,OpenAI 使用了来自互联网的大量文本数据,包括书籍、文章 和网站。该模型使用一种称为无监督学习的技术进行训练,这意味着它学会了在没有人 类监督的情况下预测文本序列中的下一个单词。GPT 模型能够生成连贯和语法正确的文本,已被用于广泛的自然语言处理任务,包 括语言翻译、文本补全和文本生成。


Transformer 模型是一种用于自然语言处理的神经网络模型。与传统的循环神经网 络(RNN)不同,Transformer 模型使用自注意力机制(self-attention)来处理输入序列 中不同位置之间的依赖关系。Transformer 模型由编码器和解码器两部分组成。编码器将输入序列中的每个单词 表示为一个向量,并通过多层自注意力和前馈神经网络来对输入序列进行编码。解码器 则使用相同的自注意力和前馈神经网络来生成输出序列。在自注意力机制中,模型根据输入序列中的所有单词计算出每个单词与其他单词的 相关性,然后使用这些相关性加权求和得到每个单词的表示向量。这种方法使得模型能 够处理长序列和跨越序列中的依赖关系,从而提高了模型的性能。Transformer 模型已经在自然语言处理领域取得了很好的效果,包括机器翻译、文 本摘要和问答系统等任务。它是目前最先进的语言模型之一,也是开发其他自然语言处 理模型的基础。


2.3 ChatGPT 将给行业带来哪些机会?


相比其他此前的人工智能技术与进展,ChatGPT 之所以引发关注,主要总结为以下 几点:1) 从使用效果上,交流通畅,同时能够实现写诗、撰文、编码的功能。2 月 1 日, 以色列总统艾萨克·赫尔佐格(Isaac Herzog)发表了部分由人工智能(AI)撰写的 演讲;2) 受用户欢迎。短短 5 天,注册用户数就超过 100 万。60 天月活破亿。3) 商业模式产生变化。2023 年 2 月 2 日,美国人工智能(AI)公司 OpenAI 发布 ChatGPT 试点订阅计划。4) 产业界也表现出对 Chatgpt 的关注。表现为:1)1 月 23 日,微软宣布向 ChatGPT 开发者 OpenAI 追加投资数十亿美元;2)谷歌 3 亿美元投资 Chatgpt 竞品。3)百度将于 3 月发布类似 Chatgpt 的 AI 服务。由此带来相关产业链的大变革:


1) 语音识别与自然语言处理行业快速发展:人工智能,也即解决像人一样看、听、思考的问题。因此,按照此维度来划分,划 分为计算机视觉、语音识别与自然语言处理及数据科学。早先,2020 年数据显示,计算机视觉占比约 56.6%;语音识别与自然语言处理占比 约 35.6%。也即,在机器视觉领域的应用,相比自然语言处理,更为成熟,市场规模更 大。但随着 ChatGPT 带来的投资热潮,与应用领域的不断丰富,音频与自然语言处理 的整体行业规模,有望迅速增长。


图片






2) 激活产业链:整个人工智能的产业链包括算力、数据、算法乃至下游应用。算力与网络:英伟达的研究表示,GPT-3 模型需要使用 512 颗 V100 显卡训练 7 个 月时间,或者使用 1024 颗 A100 芯片训练长达一个月的时间。随着各大科技厂商投入对 大模型的研发,势必增加芯片、服务器等算力需求。同时,庞大的 AI 算力集群,又需要 高带宽支撑数据传输。数据:数据采集、数据标注和数据质检是较为重要的三个环节。从自然数据源简单 收集取得的原料数据并不能直接用于有效监督的深度学习算法训练,经过专业化采集、 加工形成的训练数据集才能供深度学习算法等训练使用,由此带来数据服务需求。算法:相比传统 AI 模型,大模型的优势体现在:1)解决 AI 过于碎片化和多样化 的问题;2) 具备自监督学习功能,降低训练研发成本;3)摆脱结构变革桎梏,打开 模型精度上限。对于大模型算法的研发、优化,亦是投入的重点。下游应用:产业界一直以来都在寻求人工智能的应用领域、商业模式突破。随着大 模型使用、人工智能算法精度提升,下游应用的扩展可期。


3 数据要素资源基础,满足大模型训练需求

3.1 政策引导数据要素确权使用,扫清人工智能发展障碍


数据已成为五大核心生产要素之一。2020 年 4 月中共中央国务院《关于构建更加完善的要素市场化配置体制机制的意 见》中发布。这是数据作为新型生产要素首次在中央顶层文件中提出。而后,2022 年 4 月国务院《关于加快建设全国统一大市场的意见》中,进一步提到 加快培育数据要素市场,建立数据资源产权相关基础制度。2022 年 12 月 9 日,财政部发布关于征求《企业数据资源相关会计处理暂行规定 (征求意见稿)》意见的函,具体提出了企业数据资源相关会计、处理的方式方法,进一 步扫清了数据要素市场建立、数据资源交易的障碍。当前,2022 年 12 月发布《关于构建数据基础制度更好发挥数据要素作用的意见》, 是数据要素体系建设中,顶层关键文件,扫除了未来人工智能发展中需要使用数据的障 碍:1)建立保障权益,合规使用的数据产权制度;2)建立合规高效的场内外结合的数 据要素流通和交易制度。3)建立体现效率促进公平的数据要素收益分配制度。4)建立 安全可控弹性包容的数据要素治理制度。


数字经济快速发展,数据要素成为重要战略资源。《“十四五”数字经济发展规划》 中指出,数字经济是继农业经济、工业经济之后的主要经济形态。《规划》设定了到 2025 年实现数字经济核心产业增加值占 GDP 比重达到 10%的目标,涵盖数据要素市场、产 业数字化、数字产业化、数字化公共服务、数字经济治理体系五个方面。从 2015 年至 今,数字经济平均增速持续高于 GDP 增速,2021 年数字经济占 GDP 比重已经由 2015 年的 27%提升至 40%。


图片






3.2 大数据管理能力需求提升


联网设备高增之下,流量增长不可避免。根据思科的《年度互联网报告》,到 2023 年,地球上的连网设备数量将是全球人口的大约三倍,从 2017 年的人均 2.4 台提升至 3.6 台。由于 IP 地址即网络地址+主机地址,网络站点所连接的 IP 数量也处于爆发的阶 段。根据 IDC 的《中国物联网连接规模预测,2020-2025》,仅我国物联网 IP 连接量已 在 2020 年达 45.3 亿,有望在 2025 年达到 102.7 亿,CAGR 为 17.8%。由于 IP 地址 联网后即产生数据流量, IP 地址的数量增长即代表全网数据也将继续大增,对于现有 的网络企业的承载能力提出了考验。根据思科的《年度互联网报告》,2022 年全球网络 数据流量将达 799EB(1EB=十亿 GB),同比增长 21%。我们认为,数据流量的增长, 有望直接带动大数据产业的发展,而其中稳定优质响应快的数据库性价比更高。


全球大数据市场存量巨大,软件市场占比较高且增速快。根据 Wikibon 及沙利文研 究数据,全球大数据市场规模有望在 2022 年达 718 亿美元,同比增速 11%;而其中全 球大数据软件伟 286 亿美元,同比增速 18%,约占大数据市场规模的 40%。可以认为, 软件市场在大数据市场中,占据较大地位,而由于其增速高于大数据市场的整体增速, 其占比还将进一步提升。


图片






3.3 数据标注,是 AI 模型的基础


人工智能基础数据服务助力 AI 训练与调优,数据采集、数据标注和数据质检是较 为重要的三个环节。从自然数据源简单收集取得的原料数据并不能直接用于有效监督的 深度学习算法训练,经过专业化采集、加工形成的训练数据集才能供深度学习算法等训 练使用,从某种程度上讲,数据决定了 AI 的落地程度,因此,基础数据服务应运而生。具体来看,基础数据的服务流程围绕着客户的展开,为 AI 模型训练提供可靠、可用的数 据,其包含五个环节,分别是 1)数据库设计:训练数据集结构设计;2)数据采集:获 取原料数据;3)数据清洗:清洗残缺、重复或者错误的数据;4)数据标注:帮助机器 认识数据的特征;5)质检:各环节质量检测和控制。


市场标注行业市场规模不断扩大,图像类和语音类需求占比超八成。从市场规模来 看,根据观研天下统计,2021 年我国数据标注行业市场规模为 43 亿元,2017 至 2029 年的 CAGR 为 23%;根据 IDC《2021 年中国人工智能基础数据服务市场研究报告》, 预计中国 AI 基础数据服务市场规模将在 2025 年突破 120 亿元,近五年的 CAGR 达 47%。从市场收入结构来看,按数据类型划分,基础数据服务行业是市场需求可以分为 图像类、语音类和自然语言处理类数据需求。根据观研天下统计,2021 年我国数据标注 行业下游以图像类和语音类需求为主,二者合计占比达 86%,其中,图像类业务以智能 驾驶与安防为主,语音类以中英大大语种、中国本土方言以及外国小语种为主。


3.4 相关标的


1) 星环科技:平台、数据库集一身的数据要素稀缺标的


专注于分布式数据库,技术水平全球领先。星环科技 2013 年成立于上海,是国内 大数据管理软件领导者,已累计有超过 1,000 家终端用户,且产品已落地以下知名机构 或其主要分支机构,金融行业包括中国银行、浦发银行、浙江农村商业联合银行等,政 府领域包括上海市大数据中心等,能源行业包括中国石油、南方电网等,交通行业包括 中国邮政集团、郑州地铁等,制造业包括湖南中烟等。公司在发展中经历了多个重要节 点:1)公司 2013 年成立,随即发布了大数据基础平台 TDH2.0 版本,并于次年推出 Inceptor 关系型分析引擎、Slipstream 实时计算引擎,实现数据湖、实时计算两大热点 功能;2)2014 年公司被 Gartner 列入 Hadoop 的主流发行版列表;3)2017 年起,公 司陆续发布新品,包括分析工具 Sophon、云产品 TDC、分布式分析数据库 ArgoDB 和 分布式交易数据库 KunDB。2022 年,公司已被 Gartner 评为图数据库管理的全球代表 厂商。


图片






股权结构稳定,创始人保持控制权。发行人的控股股东、实际控制人为创始人孙元 浩,主要理由如下:(1)截至本招股说明书签署日,孙元浩直接持有星环科技 12.3%的 股份,为公司第一大股东,且在报告期内持续为发行人第一大股东。(2)孙元浩与范磊、 吕程、佘晖及赞星投资中心签署了《一致行动协议》,确认 自 2019 年 1 月 1 日起, 范磊、吕程、佘晖及赞星投资中心与孙元浩在发行人有关重大事项中保持一致行动,并 约定上述各方在无法达成一致意见时,为提高公司决策效率,在不损害孙元浩合法权益 及保障公司整体利益的前提下,应以孙元浩的意见作为各方的最终共同意见。孙元浩担 任执行事务合伙人的赞星投资中心持有公司 8.3%的股份,孙元浩之一致行动人范磊、吕 程、佘晖分别持有公司 6.7%、1.7%、1.0%的股份。因此,孙元浩本人及通过《一致行 动协议》合计控制公司 30.0%的股份。(3)报告期内,孙元浩一直担任发行人(及其前 身星环有限)的董事长及总经理,在发行人的董事会和日常管理决策中均能够产生重大 影响。( 4)根据除孙元浩、范磊、吕程、佘晖及赞星投资中心以外的发行人其他股东的 书面确认,各方均认可孙元浩于报告期内作为发行人的实际控制人。


2) 海天瑞声:人工智能基础数据服务提供商,产品矩阵不断丰富


自 2005 年成立以来,海天瑞声始终致力于为 AI 产业链上的各类机构提供算法模型 开发训练所需的专业数据集,目前已发展为人工智能领域具备国际竞争力的国内领军企 业。公司研发生产的训练数据覆盖了智能语音、计算机视觉及自然语言处理三大 AI 核心 领域,实现了标准化产品、定制化服务、相关应用服务的全覆盖,广泛应用于人机交互、 智能家居、智能驾驶、智慧金融、智能安防、OCR 识别等多个应用场景。截至 2022 年 半年报,公司累计客户量达 695 家。


公司产品应用领域不断拓宽,下游客户丰富。从应用场景来看,公司产品的应用场 景覆盖了个人助手、语音输入、智能家居、智能客服、机器人、语音导航、智能播报、 语音翻译、移动社交、虚拟人、智能驾驶、智慧金融、智慧交通、智慧城市、机器翻译、 智能问答、信息提取、情感分析、OCR 识别等多种应用场景。从下游客户来看,公司的客户为 AI 产业链上的各类机构,主要系:1)大型科技公司,阿里巴巴、腾讯、百度、 微软等;2)人工智能企业,科大讯飞、商汤科技、海康威视等;3)科研机构,如中国 科学院、清华大学等。目前,公司的产品和服务已经获得了阿里巴巴、腾讯百度、科大 讯飞、微软、清华大学等国内外客户的认可。


图片






4 ChatGPT 带来的变革——大模型算法

4.1 大模型时代的引言:Double Descent(双下降)现象


随着深度神经网络的兴起,人工智能进入统计分类深度模型时代,这种模型比以往 的模型更加泛化,可以通过提取不同特征值应用于不同场景。但在 2018 年-2019 年, 双下降现象的发现打破了原有的人工智能发展格局。简而言之,以往的数学理论表明, 随着参数增多、模型增大,过拟合导致模型的误差会先下降后上升,这使得找到精度最 高误差最小的点成为模型调整的目标。而随着人工智能算法算力的不断发展,研究者发 现如果继续不设上限的增大模型,模型误差会在升高后第二次降低,并且误差下降会随 着模型的不断增大而降低,通俗而言模型越大,准确率越高。因此人工智能发展进入了 大模型时代。


相比传统 AI 模型,大模型的优势体现在:1)解决 AI 过于碎片化和多样化的问题,极大提高模型的泛用性。应对不同场景 时,AI 模型往往需要进行针对化的开发、调参、优化、迭代,需要耗费大量的人力成 本,导致了 AI 手工作坊化。大模型采用“预训练+下游任务微调”的方式,首先从大量标 记或者未标记的数据中捕获信息,将信息存储到大量的参数中,再进行微调,极大提高 模型的泛用性。2)具备自监督学习功能,降低训练研发成本。我们可以将自监督学习功能表观理 解为降低对数据标注的依赖,大量无标记数据能够被直接应用。这样一来,一方面降低 人工成本,另一方面,使得小样本训练成为可能。3)摆脱结构变革桎梏,打开模型精度上限。过去想要提升模型精度,主要依赖网 络在结构上的变革。随着神经网络结构设计技术逐渐成熟并开始趋同,想要通过优化神 经网络结构从而打破精度局限变得困难。而研究证明,更大的数据规模确实提高了模型 的精度上限。


4.2 首要关键技术:Transformer 模型 GPT 模型利用


Transformer 模型作为特征提取器,是第一个引入 Transformer 的预 训练模型。传统的神经网络模型例如 RNN(循环神经网络)在实际训练过程中由于输入 向量大小不一、且向量间存在相互影响关系导致模型训练结果效果较差。Transformer 模 型有三大技术突破解决了这个问题。首先 Transformer 模型的 Self-Attention(自注意力)机制使人工智能算法注意到输 入向量中不同部分之间的相关性,从而大大提升了精准性。其次该模型采用属于无监督 学习的自监督学习,无需标注数据,模型直接从无标签数据中自行学习一个特征提取器, 大大提高了效率。最后,在做具体任务时,微调旨在利用其标注样本对预训练网络的参 数进行调整。也可以针对具体任务设计一个新网络,把预训练的结果作为其输入,大大 增加了其通用泛化能力。Transformer 模型的这些优点快速替代了传统的神经网络。


图片






4.3 GPT 快速迭代,从 GPT1.0 迅速步入 3.5 时代


GPT:大型无监督语言模型,能够生产连贯的文本段落。GPT-1 采用无监督预训练 和有监督微调,证明了 transformer 对学习词向量的强大能力,在 GPT-1 得到的词向量 基础上进行下游任务的学习,能够让下游任务取得更好的泛化能力。与此同时,不足也 较为明显,该模型在未经微调的任务上虽然有一定效果,但是其泛化能力远远低于经过 微调的有监督任务,说明了 GPT-1 只是一个简单的领域专家,而非通用的语言学家。


GPT-2 为了解决这一问题采用了多任务模式,其目标旨在训练一个泛化能力更强的 词向量模型,它并没有对 GPT-1 的网络进行过多的结构的创新与设计,只是使用了更多 的网络参数和更大的数据集,GPT-2 的核心思想是当模型的容量非常大且数据量足够丰 富时,仅仅靠训练语言模型的学习便可以完成其他有监督学习的任务。所以虽然它验证 了通过海量数据和大量参数训练出来的词向量模型能够迁移到其它类别任务中而不需要 额外的训练,但其任务表现并不好,还有大很提升空间。不过其表明了模型容量和数据 量越大,其潜能越大。于是 GPT-3 纳入了海量参数:1750 亿参数量还有超大的 45TB 的训练数据。在大 量的语言模型数据集中,GPT-3 超过了绝大多数方法。另外 GPT-3 在很多复杂的 NLP 任务中例如闭卷问答,模式解析,机器翻译等也很准确。除了这些传统的 NLP 任务, GPT-3 在一些其他的领域也取得了非常好的效果,例如进行数学加法,文章生成,编写 代码等。


4.4 国内外 AI 大模型项目百舸争流


除了 GPT-3 模型外,各大公司正在孵化的大模型项目数量也相当可观。MT-NLG:微软英伟达强强联手,软硬结合引领行业新景。2021 年 10 月 11 日,微 软和英伟达推出由 DeepSpeed 和 Megatron 驱动的 Megatron-Turing 自然语言生成 模型(MT-NLG), 具有 5300 亿个参数。MT-NLG 的参数数量是当时该类型最大模型 的 3 倍,并且在广泛的自然语言任务中如阅读理解、常识推理、自然语言推理、词义消 歧等方面表现出较强的准确性。基于 105 层 transformer 的 MT-NLG 在多个方面方面 改进了当时最先进模型,并为大规模语言模型在模型规模和质量方面设置了新标准。硬件方面,模型训练是在基于 NVIDIA DGX SuperPOD 的 Selene 超级计算机上进 行的,实现的系统吞吐量为:420 台 DGX A100 服务器上考虑了 5300 亿参数模型(批 量大小为 1920 )的系统端到端吞吐量,迭代时间为 44 . 4 秒、GPU 113 万亿次/秒。


Switch Transformers:Google 推出的首个万亿级语言模型。相比 1750 亿参数的 GPT-3,谷歌 Switch Transformers 则直接将该数值拉升至 1.6 万亿,且相比于 OpenAI 在 GPT-3 里所使用的 Sparse Attention,需要用到稀疏算子而很难发挥 GPU、TPU 硬 件性能的问题。Switch Transformer 不需要稀疏算子,可以更好的适应 GPU、TPU 等硬 件。


图片






文心一言:百度集成 NLP 和 CV,多级体系覆盖诸多领域。2022 年 11 月 30 日, 百度集团在 WAVE SUMMIT+2022 深度学习开发者峰会带来了文心大模型的最新升级, 包括新增 11 个大模型,大模型总量增至 36 个,构建起国内业界规模最大的产业大模型 体系。在模型层,文心大模型涵盖基础大模型、任务大模型、行业大模型的三级体系;在工具与平台层升级了大模型开发套件、文心 API 和提供全流程开箱即用大模型能力的 EasyDL 和 BML 开发平台,有效降低应用门槛;新增产品与社区层,包括 AI 创作平台 “文心一格”、搜索系统“文心百中”和样谷社区,让更多人感受到 AI 大模型技术带来的新 体验。截至目前,文心已累计发布 11 个行业大模型,涵盖电力、燃气、金融、航天、传 媒、城市、影视、制造、社科等领域,加速推动行业的智能化转型升级。


除行业大模型外,百度目前新增了 5 个基础大模型和 1 个任务大模型,包括:知识 增强轻量级大模型、跨模态理解大模型、跨模态生成大模型、文档智能大模型、单序列 蛋白质结构预测大模型和代码大模型。其中,知识增强轻量级大模型 ERNIE 3.0 Tiny 具 备优秀的泛化能力,同时相对于超大参数模型,推理速度提升数十倍到百倍,能够显著 降低超大参数模型落地的成本。百度计划在 3 月完成文心一言的内部测试,然后向公众 正式开放使用。


阿里 M6:出色的低碳低能耗属性。阿里巴巴达摩院在 2021 年开发出了超大规模中 文多模态预训练模型 M6。目前,其参数已从万亿跃迁至 10 万亿,规模远超谷歌、微软 此前发布的万亿级模型,成为全球最大的 AI 预训练模型。同时,M6 做到了业内极致的 低碳高效,使用 512 块 GPU 在 10 天内即训练出具有可用水平的 10 万亿模型。相比去 年发布的大模型 GPT-3,M6 实现同等参数规模,能耗为其 1%。M6 的优势在于将大模 型所需算力压缩到极致,通过一系列技术突破,达摩院和阿里云只用了 480 块 GPU 就 训练出了 M6,相比英伟达用 3072 块 GPU 训练万亿模型、谷歌用 2048 块 TPU 训练 1.6 万亿模型(1 TPU 约等于 2~3GPU),M6 省了超过八成算力,还将效率提升了近 11 倍。


图片






商汤在 AIGC 的不同领域有多年布局,从文字,到图片,以及视频和动画的 AIGC, 团队都从技术和产业长期投入,团队更多专注在视频的 AIGC,并叠加商汤自研的类似 于 GPT 的生成式内容进行短视频等创作。基于商汤的 SenseCoreAI 大装置,在视觉大 模型领域,商汤已训练和构建了超过 300 亿量级模型参数超大基模型,可以有效支持相 关应用。


4.5 相关标的


1) 商汤科技


以 AI 生产力平台为基础,四大板块齐头并进。公司的 AI 生产力平台 SenseCore 由] 行业研究 敬请参阅末页重要声明及评级说明 31 / 80 证券研究报 告 模型层、深度学习平台、计算基础设施三个部分架构而成。1)模型层:已开发超过 4.9 万个商用人工智能模型;算法开源计划 OpenMMLab 在 GitHub 上超 60000 颗星;OpenDILab 开源平台,已发布超过 60 个通用决策人工智能算法系列。2)深度学习平 台:高效利用 GPU 集群算力,训练单个大模型时可以在一千块 GPU 上取得超过 90% 的加速效率。3)计算基础设施:公司正在建立人工智能计算中心,预计能产生每秒 3.74 百亿亿次浮点运算算力,算力超过 2.5 exaFLOPS,相较于 2021 年底扩大 114%;公司 研发的人工智能芯片及边缘设备支持视觉领域大模型 100 亿参数;公司研发的传感器及 ISP 芯片 1 天内可完成的完整训练 1000 亿参数模型。在 SenseCore 底座基础上,公司 开发了智慧企业、智慧城市、智慧生活、智慧汽车四大板块:


智慧商业:智慧商业是公司的主要业务之一,营收占比超过 40%。公司依托 SenseCore 基座打造了 SenseFoundry Enterpri,形成商业空间管理、住宅物业管理、 工业引擎等具体奈飞拼车官网。截至 2021 年,该业务客户数量扩大至 922 家。智慧城市:2021 年公司智慧城市收入占比达 46%。公司研发的 SenseFoundry 主 要面向出行和交通管理、城市服务和环境保护等领域提供奈飞拼车官网。目前公司在中国智 慧城市计算机视觉软件市场份额第一,中国智慧应急人工智能与大数据市场份额第一。截至 2022 年上半年,累计有 155 个城市部署城市方舟,包括 16 个超千万人口大型城市 及 4 个海外城市。智慧生活:公司是智能手机产业的头部 AI 软件供应商,截至 2022 年 6 月 30 日, 已累计有 180 多个手机型号的超过 17 亿台手机预装了商汤的各类 AI 算法。公司的 SenseMARS 内置了 AI 生成内容、三维世界重建、数字人及虚拟形象等模块,目前已覆 盖的空间面积突破了 1000 万平米,覆盖了 120 多个大型游乐园区、商场等。智慧汽车:商汤科技推出的 SenseAuto,以 SenseCore 为基石,以 SenseAuto Empower 为底座,在智能驾驶、智能座舱、车路协同、L4 级无人驾驶、无人驾驶小巴 推进全线产品化商用。公司的智能驾驶和智能座舱产品累计前装定点数量达 2300 万台, 覆盖未来五年内量产的 60 多款车型。


2) 科大讯飞


AI 应用快速发展,构建人工智能产业生态。公司自创业以来持续聚焦智能语音、自 然语言理解、机器学习推理及自主学习等人工智能核心技术研究并始终保持国际前沿技 术水平。目前公司已经从语音 AI 逐渐拓展至到教育、医疗、智慧城市、消费、智能汽 车等多领域布局。同时,随着 ChatGPT 掀起热潮,公司的类 ChatGPT 技术也将于 5 月落地,率先用于 AI 学习机。智慧教育业务:智慧教育业务是公司的第一大业务,在收入中占比 30%左右。公司 构建了面向 G/B/C 三类客户的业务体系:G 端业务主要以市县区等区域建设为主体;B 端业务主要以学校建设为主体;C 端业务主要以家长用户群自主购买为主。目前讯飞智 慧教育产品已在全国 32 个省级行政单位以及日本、新加坡等海外市场应用。


图片






3) 云从科技


持续赋能 AI 领域,打造高效人机协同操作系统和行业奈飞拼车官网。公司是首个同时承 建三大国家平台,并参与国家及行业标准制定的人工智能领军企业。公司以计算机视觉、 语音识别为代表的人工智能单点技术为突破,通过不断研发并优化人机协同操作系统和 适配性强的 AIoT 设备,推动人工智能在特定场景的应用。公司具有人工智能芯片平台、 深度学习框架、AIoT 操作系统、算法算力平台、知识中台、自动驾驶平台、机器人开发 平台等丰富的产品:智慧金融业务:公司智慧金融奈飞拼车官网将相关算法能力落地为技术平台,主要面向 智慧支付、智慧营运、智慧触点、智慧风控四大领域,形成了 5 大类金融业智能化转型 奈飞拼车官网簇,以及 53 种奈飞拼车官网。目前公司在智慧金融领域的客户已涵盖 6 大行、12 家股份制银行以及城农商行,服务了超过 400 家金融机构和 10 余万个银行网点。


4) 依图科技


以人工智能芯片技术和算法技术为核心,持续深耕智能公共服务及智能商业领域。公司以人工智能算法和芯片等核心技术为基础,在城市管理、医疗健康、安全生产、交 通出行和互联网服务等场景实现规模化商业落地和与产业的深度融合。目前公司已为国 内 30 余省、自治区、直辖市及境外 10 多个国家和地区的 800 余家政府及企业终端客户 提供产品及奈飞拼车官网:


智能公共服务,公司智能公共服务主要包括智能城市和智能医疗:1)智能城市,公司主要着力于三方面:高性能算法赋能城市复杂场景。公司在计算 机视觉的多个细分领域、声纹识别、中文语音识别及自然语言理解技术均已达到世界领 先水平,可对城市实体在复杂多样场景下产生的非结构化数据进行解析、识别和关联, 构建出完整的城市实体关联关系。高效能算力硬件产品降低城市智能化门槛。公司的原 石系列智能服务器和前沿系列边缘计算设备,在显著提高城市视频智能解析吞吐效率的 同时,大幅降低了算力功耗,从而降低了投资和运营成本。“利旧”方案降低建设成本。公司将大量已建设的非智能摄像机采集的原始数据在云端进行解析,与智能摄像机的解 析结果在云端实现汇聚、融合分析,大大降低智能化建设的投资成本。2)智能医疗方面,公司是业内少数具有以多模态人工智能技术解析多源异构医疗大 数据能力,并具有自研医疗知识图谱的企业之一。公司在上海儿童医学中心建设的智慧 儿童医院奈飞拼车官网能够为患者单次就诊至少节约 90 分钟,落地一年来,该奈飞拼车官网仅智 能导诊应用就已累计为超过 27 万名患儿提供服务,诊前检验访问量突破 6 万人次。


图片






5) 旷视科技


聚焦物联网场景,推动人工智能的商业化落地。公司以物联网作为人工智能技术落 地的载体,通过构建完整的 AIoT 产品体系,面向消费物联网、城市物联网、供应链物 联网三大核心场景提供经验证的行业奈飞拼车官网。公司的 AIoT 软硬一体化奈飞拼车官网包括 以 Brain++为核心的 AI 算法体系,由 AIoT 操作系统和行业应用构成的软件,以及由 传感器模组、传感器终端与边缘设备、机器人及自动化装备组成的硬件。消费物联网:2012 年,旷视进入消费物联网领域,以 SaaS 产品的形式服务全球开 发者及企业用户,为其提供数十种 AI 能力。随着智能设备的普及,公司与多家头部智能 手机厂商等消费电子领域客户开展合作,累计为数亿台智能手机提供设备安全和计算摄 影奈飞拼车官网。


5 算力与网络是大模型运行的必要条件

5.1 大模型发展,算力需求激增


前文提到,ChatGPT 从初代模型,到当前的 3 代模型,参数量从 1.17 亿,提升至 1750 亿。同时训练数据量(语料库)也由 5GB 提升至 45TB。随着参数量和语料库指数级的扩容,ChatGPT 类人工智能需要更充足的算力支持其 处理数据,同时需要投入更多高性能的算力芯片来处理千亿级别参数量。英伟达的研究 表示,GPT-3 模型需要使用 512 颗 V100 显卡训练 7 个月时间,或者使用 1024 颗 A100 芯片训练长达一个月的时间。2012 年以来,人工智能训练任务中的算力增长(所需算力 每 3.5 月翻一倍)已经超越芯片产业长期存在摩尔定律(晶体管数量每 18 月翻一倍)。


现阶段国内无法采购英伟达 A100、H100 等高端 GPU 产品,但算力性能上的差异 可以通过提升算力芯片数量来弥补, 因此对于算力芯片产品的需求也将更高。国内主流 互联网厂商也有类 ChatGPT 产品正在开发,比如悟道和百度的文心等 AI 模型。随着国 产 GPU, CPU, FPGA 产品性能的提升,人工智能的算力需求将为国产芯片厂商打开广 阔的市场空间。同时,以 ChatGPT 为代表的 AI 技术浪潮的到来,对产业链相关芯片, 模组,材料等环节均带来了海量的新需求。


5.2 GPU/GPGPU/FPGA 多路线支持算力


人工智能深度学习模型需要处理两大任务,即训练和推理。1) 训练就是学习过程,通过大数据训练出复杂的神经网络模型,使得整个系统可以适 应特定的功能。因此,训练需要庞大的算力来处理数据并搭建网络模型,所需的芯片需要具有高算力和通用性。2) 而推理在训练之后,主要是在已有的训练完善的模型基础上,输入新数据进行推断, 能耗、时延、效率等因素都是影响推理能力的因素。但同时,推理环节不需要在庞 大的神经网络之中反复调整参数,因此对算力的要求相对于训练要低很多。


一般来说,在深度学习的训练中,GPU 因为其并行串联的优势,相比较于 CPU 更 加适应处理大数据。最早为了解放 CPU 处理其他任务和计算的需求,图形计算全部交 由 GPU 来做。因此传统的 GPU 的主要功能是做图形渲染(实质是做图形渲染的计算), 但随着 AI 计算需求的发展,GPGPU 应运而生,GPGPU 即为通用计算 GPU,指去掉 GPU 的图形显示部分,将其余部分全部投入通用计算,其在 AI、数据分析和 HPC 等场 景下可以广泛应用。总而言之,通用 GPU 在加速硬件能力上的优势比较明显,在深度学 习训练方面比较适用。根据相关市场统计,全球 GPU 的市场已经达到了 448 亿美元的规模,在 AI 的发展 需求下,通用型 GPU 的市场正在快速成长。


图片






CPU 是计算机运算和控制的核心,其工作原理是将指令依序执行,其串行运算的特 点使其更加适应逻辑控制。因此在深度学习模型之中,CPU 搭配 GPU 是目前的主流方 案,但随着各类算法在 FPGA/ ASIC 芯片上的优化,以及其本身性能的提升和成本的优 化,FPGA 和 ASIC 也会在人工智能领域上有着更广的应用。现阶段,可编程的 FPGA 芯片也逐渐提升市场份额。实际应用中,微软利用 FPGA 加速 Azure 云服务、必应等数据中心服务中的实时人工智能。FPGA 具备快速、低功耗、 灵活和高效的优点。硬件可编程的特性使得 FPGA 在 AI 训练中既能提供充足的算力, 又具有灵活性,可以重新编程以适应不同任务的需要。与 GPU 类似,FPGA 也是配合 CPU 进行加速。国内 FPGA 厂商中,紫光国微于 2022 年推出了 2x 纳米的低功耗 FPGA 系列产品,新一代 1x 纳米更高性能 FPGA 系列产品也在顺利推进中,进一步完善了产 品种类。复旦微电具备 65nm 制程千万门级和 28nm 制程亿门级产品,目前以 28nm 制 程的 FPGA 产品为主。安路科技的 FPGA 芯片产品形成了由 PHOENIX 高性能产品系 列、EAGLE 高效率产品系列、ELF 低功耗产品系列组成的产品矩阵。根据市场统计,全球 FPGA 芯片规模在 79 亿美元左右,随着 AI 和军工等下游行业 的需求增长,全球 FPGA 市场空间仍在持续上升之中。


5.3 高带宽网络是对人工智能算力的重要支撑


大模型训练和推理使用了 AI 计算集群。AI 大模型通常需要部署在 AI 计算集群以实现训练和推理加速并实现最佳能效比。以目前独家开放了 ChatGPT 调用能力的微软 Azure 为例,其 AI 基础设施由互联的英伟达 Ampere A100 Tensor Core GPU 组成,并 由 Quantum infiniBand 交换机提供强大的横向扩展能力。根据微软宣布,为 OpenAI 开 发的超级计算机超过了 28.5 万个 CPU 核心、1 万个 GPU,每台 GPU 服务器网络连接 能力为 400Gbps,位列全球超级计算机前五。目前,英伟达的 AI 计算集群整体解决方 案(如 DGX A100 系列)是 AI 集群投资的主流选择,除此之外部分云和互联网大厂选 择了 CPU+FPGA+GPU+AI DSA 异构算力自己搭建 AI 计算中心。根据 YOLE 预测,全 球 AI 加速服务器渗透率将在 2027 年达到 17.9%,AI/GPU 加速服务器出货量复合增速 高达 39.8%/20.3%。


后者是在设备转发层面尽量优化网络时延,实现高性能无损网络,目前主要手段是 无带宽收敛(1:1)的网络架构设计以及基于 PFC 和 ECN 功能的优先队列管理和拥塞管 理。无带宽收敛比设计意味着交换机下行和上行流量一致,将增加上行端口数量或端口 带宽,而优化流控技术需要可编程的三层网络交换机,以上将导致交换机端口数量增加 以及价值量提升。


图片






在数据中心集群网络方面,北美 Top4 云厂商已经全面进入 400G 部署阶段。以微 软数据中心为例,其在 2016 年开始批量部署 100G,由于 AI 算力的快速增长,2021 年 开启 400G 部署,并预计 2024 完成 400G 的全面部署,加速向 800G 迈进。而对于 400G 部署更早的亚马逊和谷歌,预计在 2023 年开启小规模 800G 部署,更大的端口带宽将 带来更高的端口密度,节约空间的同时每 Gbps 成本下降。根据 LightCounting 预测,全 球数据中心以太网光模块市场将在 2027 年突破 100 亿美金,5 年 CAGR 11.5%,其中 800G CAGR 达 72%。


单机网卡数增加和网络收敛比降低增加了交换机和光模块用量。根据数据中心光模 块需求量计算公式(流量法):1)服务器到 TOR 交换机光模块:服务器网卡端口数*2 2)TOR 到 LEAF 交换机光模块:服务器流量/一级收敛比/TOR 上联端口速率*2 3)LEAF 到 SPINE 光模块:LEAF 流量/二级收敛比./LEAF 上联端口速率*2 假设普通 Hyperscale 数据中心和 AI 数据中心分别有 X 台服务器,每台服务器网卡 速率为 100Gbps,数量分别为 2/10,网络收敛比分别为 2:1、1:1,交换机上联端口速率 为 400G,计算得到普通 Hyperscale 数据中心光模块(包括 AOC/DAC)用量为 4.75X, 而 AI 数据中心光模块用量为 23.75x,光模块用量大幅提升。


图片






CPO 探讨:一系列技术问题的解决和产业链结构的重塑。CPO(光电共封装)的主 要形态为交换芯片与光引擎封装在一块基板上,交换芯片与光引擎通过 XSR SerDes 直 联。我们认为 CPO 可能是数据中心交换机端口发展到 1.6Tbps 以上一种可能的光模块 形态,虽然 AI 算力将加速数据中心交换机带宽的增长,但 CPO 的渗透仍将是个缓慢的 过程。CPO 主要解决的是高速 SerDes 信号衰减和功耗问题(1.6T 光模块可能使用 200G SerDes)、1.6T 光模块多通道设计和良率难题以及相应带来的成本高企,但目前也有一 些问题需要解决,比如光源设计问题(如设计在交换机内光引擎附近容易出现热失效, 一种可能的思路为外置光源 ELS 但相应也会带来功耗的增加和布线的成本大幅提升)、 与交换机芯片的联调问题、以及将来的替换维护问题(需拆机维护)。我们认为,CPO 或 将重塑数通产业链结构,话语权可能会向交换芯片厂商、交换机厂商倾斜,同时光引擎 封装、硅光芯片、保偏光纤、CW 激光器、封装基板等环节也将成为新增投资机会。


5.4 量子计算有望成为 AI 算力突破的“神助攻”


量子计算产业蓬勃发展。量子计算机基于量子力学原理构建,量子态叠加原理使得 量子计算机的每个量子比特(qubit)能够同时表示二进制中的 0 和 1,相较经典计算机 算力呈指数级爆发式增长。目前量子计算机已被证明在特定计算任务上具备指数加速能 力,即实现所谓的“量子霸权”,目前量子计算产业化需要解决的三大目标一是开发大规模 可容错的量子计算机以尽快实现可编程计算;二是开发精妙的量子计算算法以实现在特 定场景的商业化价值;三是解决量子计算资源稀缺性难题,通过云平台提升综合性普惠 服务能力。根据 Hyperion Research 最新展望,全球量子计算市场 2022 年市场规模 6.14 亿美 元,预计到 2025 年达到 12.08 亿美元,CAGR 25%,其中机器学习市场占比 25%,被 认为是最有潜力的应用市场之一。


图片






量子计算在 AI 的应用处于探索初期,发现部分算法可能有优势,但还没实现量子 霸权。神经网络和机器人学习系统的发展依赖于算力的进步以及庞大的训练数据量积累, 随着摩尔定律演进的放缓以及“内存墙”等经典计算机架构原因,算力增长正在放缓,而隐 私问题&数据标注成本也阻碍大数据的无限度获取。目前,产业界认为量子计算可能会成 为机器学习发展的“神助攻”或开辟崭新的量子机器学习领域。一是量子计算机本身的工作架构可被看做一个神经网络(N 个 Qubit 可代表 2 的 N 次方个神经元),麻省理工大学物理学家 Lloyd 估计,60 个 Qubit 量子计算机可以编码 的数据量就相当于人类一年生成的所有数据,而神经网络运算相当于同时对这些“神经元” 对矩阵运算。二是传统神经网络初始层导入输入的样本将被中间层生成不同组合形式的 输入,而采用量子比特编码的数据集数量和多样性都有可能扩大和丰富从而可能更好地 训练模型。目前学术界探讨的可能展现出优势的人工智能算法包括决策问题、搜索问题、 博弈理论、自然语言处理、贝叶斯网络、模式识别等,但由于目前还无法成功解决模型 的初始参数输入以及准确的结果测量手段等问题,量子计算机在以上人工智能算法上还 未展现出“量子霸权”优势。


量子计算加速 NLP 成为最被看好的前沿应用领域。作为目前爆火的 AI 大模型, ChatGPT 是自然语言处理(NLP)的创新成果,结合了语言学、计算机和人工智能,以 理解和模仿人类如何使用语言。量子计算在 NLP 大型复杂数据集处理中可能具有价值, Omdia 首席量子计算分析师 Sam Lucero 认为量子计算将在 NLP 中发挥作用,最终在 ChatGPT 和 AIGC 中发挥作用,该研究分支被称作 QNLP。根据启科量子研究,QNLP 可能存在以下优势:1)NLP 的主要任务即相关搜索或 任务分类的算法加速;2)指数级的量子状态空间适用于更加复杂的语言结构;3)运用 密度矩阵的新型意义模型自然地模拟了诸如下义关系和语言歧义等语言现象;4)可以大 大提高训练效率,用更少的训练数据达到相同的能力水平。2020 年初,剑桥量子计算公 司(CQC)宣布首次在量子计算机上执行自然语言处理测试并获得成功,他们通过将语 法句子翻译成量子电路,然后在量子计算机上实现生成的程序执行问答,发现了在含噪 声中等规模量子计算时代获得量子优势的途径。


5.5 相关标的


1) 海光信息:国产 CPU 与 GPGPU 重要参与者


海光信息是一家以 CPU 和 DCU 产品为主的芯片设计厂商,公司多款产品性能达到 了国际同类型主流高端处理器的水平。CPU 类产品兼容国际主流 x86 处理器架构和技术 路线以及国际上主流操作系统和应用软件,软硬件生态完善,可靠性和安全性较高,得 到终端客户的认可,已经广泛应用于运营商、金融、互联网、教育等重要行业及领域。海光 DCU 系列产品以 GPGPU 架构为基础,兼容通用的“类 CUDA”环境以及国际主 流商业计算软件和人工智能软件,软硬件生态丰富,可广泛应用于大数据处理、人工智 能、商业计算等应用领域。在 ChatGPT 等应用场景下的所指的 GPU 即为 GPGPU,去掉 GPU 为了图形处理 而设计的加速硬件单元,保留了 GPU 的 SIMT 架构和通用计算单元。所以对于 ChatGPT 场景下的 AI 训练、矩阵运算等通用计算类型的任务仍然保留了 GPU 的优势,即高效搬 运,运算,重复性的有海量数据的任务。


图片






2) 复旦微电:FPGA 受益算力增长


复旦微电的 FPGA 产品线拥有系列化超大规模异构融合可编程逻辑器件系列产品, 公司在国内较早的推出了亿门级 FPGA 和异构融合可编程片上系统(PSoC)芯片,以 及面向人工智能应用的 FPGA 和 AI 的可重构芯片(FPAI)。公司累计向超过 500 家客户销售相关 FPGA 产品,在通信领域、工业控制领域等得到广泛应用。


FPGA 在人工智能加速卡领域应用广泛。FPGA 通过与 CPU 搭配,CPU 的部分数 据运算转移给 FPGA,最终 FPGA 起到加速作用。无论是赛灵思还是英特尔,其 FPGA 在数据中心运算方面的产品形态均为加速卡,在服务器中与 CPU 进行配合。人工智能领 域属于加速计算的一个分支,如阿里云、腾讯云之类的数据中心均对加速卡存在大量需 求. 根据人工智能的不同应用领域,可将各种算力需求和控制逻辑用最合适的资源组合 实现,在这一过程中,FPGA 在其中起到了关键作用。总体而言,FPGA 具备快速、低 功耗、灵活和高效的优点。硬件可编程的特性使得 FPGA 在 AI 训练中既能提供充足的 算力,又具有灵活性,可以重新编程以适应不同任务的需要。


3) 中际旭创:全球光模块龙头迎来 800G 时代


中际旭创是全球高速数通光模块龙头,在 Top5 云计算公司光模块供应商中占据最 大份额,根据 LightCounting 统计,公司在 2021 全球光模块市场位列第一。全球云巨头 数据中心网络部署正处于 400G 批量部署、800G 小批量上量阶段,公司 800G 全系列 产品已实现供货,800G 时代有望维持龙头地位,并将享受 400G、800G 高端产品收入 占比增加带来的综合毛利率提升。此外,公司布局硅光、CPO 等前沿技术,硅光/EML 两 种平台 400G 光模块均通过客户验证,未来有望把持产业链上游核心环节,实现供应链 稳定。在电信市场,公司战略进军相干高端光模块,已在国内主要设备商实现供货,有 望开启第二增长曲线。


4) 联特科技:欧美中低速 WDM 主流供应商,数通光模块“黑马”


联特科技在海外市场主打差异化竞争优势,经历 10 年积累,在 WDM 细分市场占 据了优势地位,主要客户包括爱立信、诺基亚、Prolabs、Adtran 等。随着欧美疫后通信 新基建投资增加,原有城域网持续速率升级,公司在客户份额有望继续提升。此外,海 外发达国家 RAN 市场,爱立信、诺基亚两家占据主导地位,公司作为爱立信前传光模块 主要供应商之一收入持续增长。数通方面,近几年营收快速增长,2021 年营收达 3.3 亿 元,同比增长 33%,在整体收入中占比近半。公司已成为思科、Arista 等海外主流设备 商合格供应商,100G/400G 高速光模块产品持续上量,并有望在 2023 突破北美 Top4 云厂商客户。公司前瞻布局 800G 和 CPO 产品,目前已推出基于 EML、SiP、TFLN 全 系列 800G 产品,EML 预计 2023 年在客户端完成全面认证。


5) 天孚通信:光通信精益制造代表,光引擎、激光雷达成长速度快


天孚通信定位于光器件整体奈飞拼车官网提供商 OMS,目前拥有十三大产品线、八大解 决方案,几乎涵盖光模块生产所需的所有无源光器件、各种有源封装形态等。公司 2022 年业绩快报预计实现收入 12.06 亿元,同比增长 16.8%,五年 CAGR 29.1%,归母业绩 29.2%。公司将持续优化无源产品线结构,拓展新客户的同时提供一站式奈飞拼车官网增加 单客户价值量,未来无源产品有望保持高于行业的平均增速和毛利率;有源方面,公司 战略聚焦高速数通领域,与大客户合作的硅光引擎快速上量,将受益于 800G、1.6T 硅 光、CPO 等新技术渗透率提升。此外,公司在激光雷达领域秉持精益制造理念,提供滤 波片、透镜、棱镜等无源光器件以及模组化奈飞拼车官网代工,目前在国内主流新势力车型 已取得定点,未来两年将持续放量。


6) 国盾量子:量子计算机已实现原型机搭建


公司核心技术来源于中科大产业化平台,是全球量子通信 QKD 设备龙头企业。公 司在国内量子通信骨干网一期建设中占据了主要的设备份额,其骨干网/城域网 QKD 编 码产品、量子卫星地面站产品、信道与密钥组网交换产品已批量部署。我们认为,随着 国内经济的全面复苏,量子骨干网二期有望启动,同时公司在电力、电信、金融等领域 与大型央国企签订战略合作协议,随着各行业对保密通信的重视,有望开启更加广阔的 行业市场。公司在量子计算领域主要提供超导量子计算低温线缆组件、约瑟夫森阻抗渐 变参量放大器、ez-Q Engine 超导量子计算操控系统等子系统和器件,其超导量子计算 操控系统成功主力“祖冲之号”实现量子优越性展示。公司日前完成了“祖冲之二号”同等规 模超导量子计算机原型机搭建,是国内目前唯一具有量子计算机整机集成能力的上市公 司,未来将通过平台的形式率先提供服务。


7) 浪潮信息:国内领先 AI 服务器厂商


公司是全球领先的新型 IT 基础架构产品、方案及服务提供商,以“智慧计算”为战略, 通过“硬件重构+ 软件定义”的算力产品和奈飞拼车官网、构建开放融合的计算生态,为客户 构建满足多样化场景的智慧计算平台,全面推动人工智能、大数据、云计算、物联网的 广泛应用和对传统产业的数字化变革与重塑。当前业务包括传统服务器、AI 服务器及存储产品。根据 IDC 最新数据,浪潮信息的服务器产品 2021 年全年位居全球前二,持续以 30%+的市占率领跑中国市场;AI 服务器方面,根据 IDC 数据,2021 年全年,中国 AI 服务器市场规模达 350.3 亿 元,同比增长 68.6%。从厂商维度看,浪潮信息、宁畅、新华三、华为、安擎位居前五, 占据了 82.6%的市场份额。其中,浪潮 AI 服务器市场占有率达 52.4%。2021 年,公司 发布首款智算中心调度系统 AIStation,拥有性能最强的液冷 AI 服务器 NF5488LA5,发 布 2457 亿参数的 AI 巨量模型“源 1.0”。


6 从元宇宙到大制造,大模型应用领域不断丰富

6.1 “生成式 AI”在互联网及元宇宙应用


“生成式 AI (generative AI)”在互联网及元宇宙领域市场化空间较为广阔。基于现行 的 NLP 算法发展程度及数据集规模,在不久的将来,生成式 AI 有较大可能在“智能客服” 和“搜索引擎”进行增值,并有希望以“插件”的形式赋能现有的“生产力工具链(工程软件/音 视频制作工具等)”。在为客服领域增值的过程中,有希望在人工客服的全链路中(包括问题识别、潜在 奈飞拼车官网交付、反馈优化、和风险识别等)实现对人工客服的替代。可实现替代的领域 包括电商零售、医疗健康、金融服务、和电信等领域的客服环节。


1) “生成式 AI”在智能客服领域的潜在应用


“可对话 AI(Conversational AI)”是“生成式 AI”在智能客服领域的直接应用。根据 Grand View Research,全球“可对话 AI(Conversational AI)”2021 年市场空间为 62 亿美 元,其中,BFSI(银行保险等金融服务),医疗,零售和电商,和电信领域的市场空间为 42.5 亿美元左右,占 68.5%左右;根据 Grand View Research 预测,2030 年“可对话 AI” 的市场空间将达到约 413.9 亿美元,对应 2022 至 2030 年复合增长率(CAGR)为 23.6%。该领域的核心竞争者包括:谷歌,微软,亚马逊,IBM,甲骨文,和 SAP 等。市场增长 的主要驱动因素包括各领域对于应用 AI 技术替代人力这一需求的提升,和持续下降的 AI 对话程序的研发成本。


图片






我们判断,从现在起至未来几年,作为 “ 生 成 式 AI” 重 要 应 用 的 “ 对 话 AI(Conversational AI)”的商业化模式中较为清晰且可行的,是在各个领域对于人工客服 的替代。对人工客服进行替代的假设是基于以下 3 点考虑:1、全球主要发达经济体人口 增长乏力,劳动力数量减少,用工成本攀升,有强烈的使用 AI 对话机器人替代人工客服 的需求;2、“智能对话机器人”相比“人工客服”可以创造更多价值,即,机器人可以完成 更多人工客服无法胜任的任务,并且工作效率高,解决问题出错率较低。3、“智能对话 机器人”研发和部署成本的有希望随着算力提升或者异构运算的发展而逐步下降,同时该 机器人的实践经验的可复制性不断提高。由于电商、医疗健康、BFSI、和电信网络服务 的客服服务中产生的问题及解答,较为结构化并依赖劳动力密集产出(其中,医疗健康 领域不包括医生看诊环节,仅包括挂号预约、初步咨询、取药、和护理服务沟通等专业 性较低环节),所以这 4 个应用领域有望成为“可对话 AI”可以进行“人力资源替代”的主要 领域。我们从这 4 个主要领域入手,基于对未来驱动因素的假设,进行了市场空间测算。根据 Grand View Research,2021 年这 4 个主要领域市场空间约为 42.5 亿美元左右;基于此作为起点,经过我们的测算,2033 年这 4 大主要领域的市场空间可以达到 478 亿美元。


2) “生成式 AI”在搜索引擎领域的潜在应用


在互联网搜索领域,目前谷歌占据绝对的领军地位。谷歌主要的业务板块是谷歌服 务(Google Services),2022 年谷歌服务收入 2535.28 亿美元。谷歌服务依赖谷歌在搜索 引擎领域长期积累的技术和商业化优势,包括搜索,Youtube,google play 智能手机平 台,广告,浏览器,邮箱,云盘等。在考虑未来“生成式 AI”在搜索领域可以实现的收入时,考虑范围应该不局限于“搜索 引擎”本身,还应该包括基于“搜索引擎”技术所拓展出的外延部分,比如 Youtube,GoogleMap 和 Google Play 等;这些搜索引擎外延部分的商业化表现,本质是基于平台是否可 以基于用户的搜索请求或者使用习惯,将产品及服务较精准的分发给用户,然后用户并 为此付费。所以,谷歌服务部分的收入天花板,可以用来作为“标尺”去衡量未来智能对话 机器人在“搜索领域”的潜在收入中最易于理解的部分。


2023 年 2 月初,微软公布新 Bing (New Bing)搜索引擎,该版本搜索引擎集成了 ChatGPT 技术,公布不到 48 小时,申请用户量已经过百万。用户需要排队注册申请并 等待获得使用新 Bing 测试版的资格。根据微软官方的解释,新 Bing 可以作为类似研究 助理(research assistant),个人计划员(personal planner),和创意合作伙伴(creative partner)的角色为用户创造价值。和常规的搜索引擎相比,新 Bing 的搜索结果将不再是 简单的提供给用户一个链接列表,而是给用户一个概括的答案,解决用户的具体问题, 并且提供可靠的信息来源。用户可以按照思考和沟通的方式与新 Bing 对话。同时,新Bing 也可以作为创意工具,帮助用户写诗,写故事或者写分享关于项目的想法。根据 The Verge 发布的新 Bing 测试使用体验,用户可以直接向 Bing 提问如何帮助自己规划一个 在纽约市 3 日的旅行,同时确保自己可以待在纽约时代广场附近;而新 Bing 的回复可以 做到将酒店的选择按照一定优先级为用户规划出来。


图片






2023 年 2 月初,谷歌也发布了谷歌巴德(Google Bard)生成式可对话 AI。使用了谷 歌的 LaMDA(Language Model for Dialogue Applications)模型。但是谷歌巴德发布之后, 并没有达到用户的期待。之后,谷歌母公司 Alphabet 主席 John Hennessy 称,谷歌之 前在犹豫是否要将 Bard 应用于产品中,因为 Bard 还没有真的准备好。同时,百度也与同一时期官宣了“文心一言(ERNIE Bot)”即将于 2023 年 3 月完成内 测,届时将向公众开放。之后,上海报业集团,36 氪,广州日报,爱奇艺,度小满,携 程等媒体及互联网产品和平台均宣布接入文心一言。文心一言采用文心大模型,文心大 模型的 API 包括 ERNIE 3.0 文本理解与创作,ERNIE-ViLG 文生图和 PLATO 开放域对 话服务。


6.2 AI 赋能制造业转型升级,智能制造浪潮兴起


物联网、大数据、云计算等技术日益成熟,人工智能已成为新时代的风口浪尖,“人 工智能+”也代表一种新的社会形态。智能制造是实现制造强国的主攻方向,更是提升制 造业竞争力的核心技术。随着智能制造的浪潮兴起,人工智能技术已贯穿于制造业设计、 生产、管理等诸多环节。从必要性看,在劳动力及土地成本双升的背景下,制造业面临 着利润低、市场变化迅速等压力,而人工智能的应用不仅可以帮助企业提升智能化运营 水平,实现降本增效,还可以通过与其他新兴技术的融合,推动制造业模式升级及价值 链重构。从实际应用来看,人工智能在制造业的应用可分为三方面:1)智能装备:指具 有感知、分析、推理、决策、控制功能的制造装备,典型代表有工业机器人、协作机器 人、数控机床等;2)智能工厂:利用各种现代化的技术,实现工厂的办公、管理及生产 自动化,典型的代表场景有协作机器人、智能仓储物流系统等;3)智能服务:指个性化 定制、远程运维及预测性维护等,典型代表有工业互联网等。


1) 智能装备产业百花齐放,工业机器人与高端数控机床空间广阔


工业机器人


工业机器人种类众多,贯穿工业生产的诸多工艺过程。工业机器人是广泛用于工业 领域的多关节机械手或多自由度的机器装置,具有一定的自动性,可依靠自身的动力能 源和控制能力实现各种工业加工制造功能。从构成来看,其主要分为三大模块:传感模 块、控制模块和机械模块。其中传感模块负责感知内部和外部的信息,控制模块控制机 器人完成各种活动,机械模块接受控制指令实现各种动作。从种类来看,工业机器人可 分为搬运作业/上下料机器人、焊接机器人、喷涂机器人、加工机器人、装备机器人、洁 净机器人及其他,贯穿于工业生产过程中从材料和零部件入库到生产再到最终产品出库 的诸多环节。根据亿欧智库整理数据,2021 年搬运机器人和焊接机器人占比最高,分别 达 55%和 25%。从功能上看,较人工和传统机器而言,不论哪一类工业机器人,在实际 生产中都具备成本、效率、安全等众多优势。因此,我们认为,随着核心零部件和核心 技术的快速发展,工业机器人市场有望迎来快速发展。


图片






高端数控机床


数控机床是一种装有程序控制系统的自动化机床,具备柔性和高效能的特点。近年 来国内数控机床技术在高速化、复合化、精密化、多轴化等方面取得了重要突破,高端 数控机床产业发展迅速。从组成来看,高端数控机床包括加工程序载体、数控装置、伺 服系统、机床主体和其他辅助装置。具体来看:1)加工程序载体。即以一定的格式和代 码存储零件加工程序,从而对数控机床进行控制。2)数控装置。属于数控机床的核心, 多采用 CNC 系统,通过计算机系统程序的合理组织,整个系统协调的进行工作。3)伺 服与测量反馈系统。主要用于实现数控机床的伺服控制,包括驱动装置和执行机构两大 部分。4)机床主机。指在数控机床上自动地完成各种切削加工的机械部分,包括床身、 底座、立柱、滑座、主轴箱、刀架等机械部件。5)其他辅助装置。证充分发挥数控机床 功能所必需的配套装置,常用的辅助装置包括:气动、液压装置,排屑装置,冷却、润 滑装置等。


数控机床优势明显,后疫情时代市场规模恢复增长。与普通机床相比,数控机床的 优点众多,具体来看:1)高度柔性。在数控机床上加工零件,主要取决于加工程序,因 此其适用于所加工的零件频繁更换的场合,能较大程度缩短生产周期并节省费用。2)加 工精度高。数控机床是按数字信号形式控制的,加工精度更高。3)加工质量稳定、可靠。4)生产率高。数控机床可有效地减少零件的加工时间和辅助时间。因此,高端数控机床 正广泛应用于大制造领域。从市场规模来看,根据中商产业研究院统计数据显示,2019 年我国数控机床市场规模达 3270 亿元,但 2019 年后,受疫情影响,2020 年国内数控 机床市场规模缩减至 2473 亿元。受益于国内疫情控制良好,各行业开始复工复产,2021 年数控机床市场规模恢复增长,达 2687 亿元。中商产业研究院预测,2022 年数控机床 产业规模将达 2957 亿元。就目前形势来看,我们认为,一方面,随着国内疫情管控放开,经济环境向好,各 行各业活力加速恢复,数控机床产业有望受益于下游需求加速扩张;另一方面,随着上 游核心零部件国产化水平提升,数控化率也会逐步提升,国产替代空间广阔,因此,高 端数控机床产业势在必行。


2) 智能工厂是实现智能制造的载体,协作机器人与智能仓储物流 是工厂新星


协作机器人


协作机器人是一种新型的工业机器人,扫除了人机协作的障碍,机器人与人可以在 生产线上协同作战,充分发挥机器人的效率及人类的智能,给未来工厂的工业生产和制 造带来了根本性的变革。与传统工业机器人有所区别,协作机器人优势特点明显。与传统工业机器人相比, 其不同之处在于:1)目标市场不同,协作机器人偏向于应用在中小企业及适应柔性化生 产要求的企业,而传统工业机器人适用于大规模生产企业。2)模式不同,传统工业机器人是作为整个生产线的组成部分,如果某个环节机器人坏了,整条产线可能会面临停工 的风险,而协作机器人更具备柔性特点,代替的是人,使得整个生产流程更为灵活。优 势方面,协作机器人具备轻量化、友好性、人机协作、编程方便及感知能力五大特点。


图片






智能仓储物流


智能仓储物流系统是通过信息化、物联网和机电一体化共同实现的智慧物流解决方 案,通过将物料出入库、存储、输送、生产、分拣等物流过程自动化、信息化和智能化, 来实现降本增效的目的。从构成来看,智能仓储物流系统包括硬件装备和软件系统。其中,硬件装备可按环节分为仓储装备、分拣装备和搬运与输送装备,具体的产品包括立 体仓库、堆垛机、穿梭车、输送机、AGV、码垛机器人和分拣机等,主要执行具体的仓 储物流操作任务;软件系统是智能仓储物流系统的控制中心,主要包括仓储管理系统 WMS 和仓储控制系统 WCS,负责具体的仓储物流信息控制。从环节划分,仓储装备与 软件系统的结合即智能仓储;分拣与输送、搬运装备与软件系统的结合称为狭义的智能 物流;若智能仓储物流系统与生产线对接,增加物料管理、产线对接等产线功能模块, 即构成智能产线仓储物流系统,也就是常说的智能产线,也是智能工厂的基础版。


市场空间前景广阔,黄金赛道有望开启高增。从智能仓储市场规模来看,根据头豹 研究院统计的数据来看,受益于物流行业规模的迅速增长和仓储环节降本增效的需求不 断攀升,市场规模从2017年的712.5亿元增至2021年的1145.5亿元,CAGR达12.6%。但从设备渗透率中,也反映出智能仓储物流在很多领域的融合程度不足,因此向未来看, 随着智能仓储物流与更多应用场景融合和 5G、物联网、人工智能等技术在仓储行业的进 一步升级,智能仓储行业有望加速发展,预计 2021-2026 年 CAGR 达 18.4%,2022 年 智能仓储物流市场规模约 1357 亿,2026 年达 2665 亿元。


6.3 AI 赋能工业互联网,打造高效率设备管理和生产流程


智能服务是智能制造的必然延伸,工业互联网是制造业智能化的重要发展方向。工 业互联网是数字化转型的关键力量,更是推动制造业转型发展的重要支撑。工业互联网 是全球工业系统与高级计算、分析、感应技术以及互联网连接融合的一种结果。其本质 是通过开放的、全球化的工业级网络平台把设备、生产线、工厂、供应商、产品和客户 紧密地连接和融合起来,高效共享工业经济中的各种要素资源,从而通过自动化、智能 化的生产方式降低成本、增加效率,帮助制造业延长产业链,进而推动制造业转型发展。换言之,工业互联网是实现智能制造的发展模式和现实路径。其产生背景也是国内人口 红利的消失,劳动力成本上升。工业互联网则通过信息技术与工业系统的深度融合,保 证对制造成本控制,因此,工业互联网已成为主要工业国家抢占国际制造业竞争的制高 点。


图片






AI 算法的加入将有效提升设备运行稳定度和流程控制效率。以流程工业 PHM 智能 监测系统为例,传统监测方式需要大量人工进行实时排障,随着 AI 算法的加入,PHM 有望快速实现智能化、无人化,减少紧急维修事件发生的概率,降低其带来的停机、排 障、维修损失,同时降低不必要的检修次数和对应成本。对于化工、冶金、煤炭等流程 行业来说,每一个泵、反应釜、管路、温控设备出现故障都会对产线造成重大影响,甚 至酿成生产事故。AI 带来的能力提升将意义匪浅。


6.4 人工智能助力汽车智能化


1) 智能驾驶:从驾驶辅助到自动驾驶


自动驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作, 它是一个集环境感知、规划决策、多等级辅助驾驶等功能于一体的综合系统,它集中运 用了计算机、现代传感、信息融合、通讯、人工智能及自动控制等技术, 是典型的高新技 术综合体。这种汽车拥有和人一样的“思考”、“判断”以及“行走”能力,使得电脑可以在没 有任何人主动的操作下,能够自动安全地操作机动车辆。按照《汽车驾驶自动化分级》,驾驶自动化共分为:应急辅助、部分驾驶辅助、组合 驾驶辅助、有条件自动驾驶、高度自动驾驶以及完全自动驾驶六个层级。


智能驾驶的感知、处理和执行都离不开人工智能技术的基础。首先,感知:让车辆 配对相应的感测器来收集车辆的行驶状况和道路环境状况等信息。不同的系统需要由不 同类型的车用感测器,包含毫米波雷达、超声波雷达、红外雷达、雷射雷达、CCD \CMOS 影像感测器及轮速感测器等来收集整车的工作状态及其参数变化情形;其次,处理:将 感测器所搜集的信息进行分析处理,再向智能控制中心传达控制讯息;最后,执行。根 据控制中心下达的命令,完成对汽车的驾驶。


2) 智能座舱:从出行工具到出行管家


智能座舱实质是汽车驾驶舱中的人机交互场景,主要目的是将驾驶信息与娱乐信息 两个模块进行集成,利用自身处理海量信息数据的强大能力,把握用户在不同场景下的 行为习惯,并以此优化智能座舱的空间结构,进而提升用户的驾乘体验。据《2022 中国智能汽车发展趋势洞察报告》,未来随着智能化技术的不断普及,汽 车不再仅仅是交通工具,将扩展成为日常生活的第三空间,用户对乘坐体验要求更高, 智能座舱将加速普及。根据 ICVTank 数据,2022 年全球智能座舱行业市场规模有望达 461 亿美元,中国作为全球最具发展潜力的汽车市场,2019 年中国智能座舱市场规模达 441 亿人民币,预计 2025 年市场规模将达 1030 亿人民币,2017-2025 年的复合增长率 为 13%,发展潜力巨大。


智能座舱是由不同的座舱电子组成的完整体系,其关键技术主要由四部分组成。第 一部分是机械技术,包括可变化车体技术和内饰机构技术。未来汽车可根据不同模式进行伸缩折叠是一种趋势,座舱需要可以根据乘客对于不同场景的使用需求,实现内饰空 间的不断调整变化。第二部分是电子硬件技术,包含芯片技术、显示屏技术、专用电器 总成以及传感器技术四大技术。第三部分是软件技术,主要有操作系统和各种应用软件。汽车智能化发展必然会趋向于一机多屏,通过操作系统实现一个车机芯片控制各屏的软 件。第四部分是两大支撑技术,分别是人工智能技术和云计算技术。未来智能算法的准 确性决定了不同品牌智能座舱的差异化,是影响车内体验的关键。


ChatGPT 加速落实“汽车机器人概念”。百度于 21 年 8 月举办的百度世界大会 2021 上首提“汽车机器人”的概念,并发布了具有跨时代意义的 Apollo“汽车机器人”。今年 2 月 15 日百度旗下智能汽车公司品牌集度计划年内推出“三体版”汽车机器人,将融合百度文 心一言的全面能力,打造针对智能汽车场景的大模型人工智能交互体验,支持汽车机器 人实现自然交流的再进阶。近日,长安汽车旗下深蓝品牌公众号发布题为“假如把 ChatGPT 装进长安深蓝 SL03”的文章,内容为 ChatGPT 与长安深蓝 SL03 车机系统 DEEPAL OS 的一番对话。通过这次对话,DEEPAL OS 将自身特点、优势逐一说给 ChatGPT 的同时,亦把自己介绍给了消费者和网友。