Alpha-生成式ai产业全景图
注意:本文尚处于 Alpha 阶段,代表内容尚未完成且存在大量的疏漏和表述不当,欢迎提出反馈修改意见
一、前言
让我们先从大语言模型(LLM)开始。我们可以将大语言模型看作是一段计算机程序,通过使用大量的文本代码等数据进行训练(包括书籍、文章、网站、百科全书和代码等)得出的一个 token 预测器。是的,你虽然可以和 chatgpt、通义千问、newbing 等 to c 的 ai 产品交谈,它们也似乎展现了些许感情和思考能力,但它们本质上就是一个 token 预测器,不断的去预测下一个词到底是什么。
我们现在流行的大语言模型的规模都是十分庞大的,庞大到个人开发者和小公司几乎无法染指的程度——现在市场上的主流玩家都拥有万卡集群,上亿的资金投入只是一张入场券。
现在市面上大多数的所谓生成式 ai 市场报告要么流于形式,要么漏洞百出,在经受过这些厕纸的荼毒之后我终于决定自己完成一篇生成式 ai 大模型的市场调研报告。
不过其实我们也得考虑到这些报告很大程度上是由我这样的实习生来完成,其实大家都是草台班子,就,凑合着过吧。
整个生成式 ai 市场可以分成以下几种玩家
基础设施层(算力层)
基础模型层
应用建构层
二、基础设施层
半导体、芯片、云托管、推理、部署
大模型毕竟是一个建立在无数高性能GPU组成的数据中心的程序,因此提供现实世界里的“温室”的公司也至关重要。
三、基础模型层
在这里,我们必须要讨论一下开源模型和闭源模型。开源的大模型的基础代码和架构是公开的,一般来说是可以被任何人自由的使用、修改和分发。开源大模型的开放性促进了全世界的大模型工程师们的交流,开发者可以为模型的进步做出自己的贡献,或者直接应用整合到自己的项目之中。而闭源大模型则保持着代码和架构的私有与保密,我们不能直接的去访问它们。闭源大模型的使用、修改和分发收到商业协议的严格控制,外部开发者和研究人员不能直接访问模型,研究内部参数。我们一般通过 api 来调用模型回答问题或者阅读文件