庆云古诗词

庆云古诗词

百度:“文心一言”发布,国内厂商距离复现 ChatGPT 有多远?

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

百度文心一言发布会,百度文心一言发布会翻车,百度文心一言发布会视频,百度文心一言发布会地点

(报告出品方/分析师:华西证券 赵琳)

3 月 16 日百度 AI 对话模型“文心一言”发布,我们据发布会信息总结,“文心一言”基于此前 ERNIE 大模型、PLATO 对话模型训练而成,是对百度2019年起便已开始的 NLP 实践的延续。

从技术角度看,除百度已有的知识增强、检索增强、对话增强技术外,“文心一言”引入了有监督的精调、RLHF(基于人类反馈的强化学习)、提示学习等ChatGPT 基础技术,但具体参数量、数据量、耗能、对话时效等均未公开。

事前录屏而非实机演示,对外界信心产生负面影响。从现场发布的 demo 来看,文心一言具备文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成能力,同类问题下中文理解能力强于 GPT4,且随输入内容生成音频、视频尚属 AI 对话模型中的首例,存在超预期亮点,但发布会未能展示模型的编程能力,且事前录屏降低了其演示的真实性,也并未对公众开放,多种因素导致公众反馈不佳。

“文心一言”展现了足够的文案创作能力,为 B 端降本增效的起始逻辑已经明晰。

出于商业角度考虑和高昂的端侧微调成本,厂商普遍放弃开源,转而以提供 API 的方式供下游用户在特定场景下进行推理使用。

以 ChatGPT 为例,OpenAI 并未公布其基础模型(GPT3.5、GPT4)技术细节,用户仅能够在自身应用内通过API调用其模型。

从第一批用户实际使用来看,“文心一言”已经展示了基础文案工作能力,除此前接入 650 家企业外,发布当日有 6.5 万家企业申请测试,签约 5 家客户,一定程度反映了企业客户的认可程度。用户交互能够进一步改善模型表现,我们判断这也是公司急于推动模型面世的原因之一。

OpenAI自 GPT-3 便开始对外提供服务,通过开放给公众,GPT3 收集来自用户输入内容的多样性数据,从而迭代出效果更好的模型,这就决定了 GPT4 是站在用户交互飞轮的巨人肩膀上,与文心一言并不在同一起跑线。

但是海量用户群也是百度的长处之一,GPT 的飞轮效应是可复制的。尽管尚未对公众大范围开放,企业用户已经能够申请内测邀请码,邀请范围若持续扩大,飞轮效应将推进“文心一言”表现改善,且优化空间极大。

我们判断,尽管上下文理解、语义逻辑、多轮对话方面尚有欠缺,“文心一言”在部分问题处理上已经能够对标 GPT3 水平,但具体表现仍需时间和公众验证。

我们依然认为,人工智能必然成为产业发展长期主线,国产替代具有需求上的紧迫性。以“文心一言”发布为契机,我们重点分析国内主流科技企业在复现 ChatGPT 领域需要克服的差距,判断对国产大模型的发展不必过度悲观。

1.1.细究算法、数据、算力三要件,略逊一筹但仍有追平可能

1.1.1.算法:核心差距在于方法及细节处理

大模型的技术积累已经行至一个质变节点。我们将 NLP(自然语言处理)及 CV(计算机视觉)技术视作类 ChatGPT 产品的技术底座,从深度学习的角度分析其发展历程,残差网络及 Transformer 的出现使得模型的深度和参数量指数级增加,大模型成为可能;大语言模型出现后,大模型的使用方式从预训练的单一任务模型迭代到多模态模型,微调时所需的标注数据量显著减少,从而降低了业务的使用成本。

国内 AI 领域积累深厚,历年论文发表及专利申请占优。

Elsevier 数据显示 2012- 2021 年中国 AI 相关论文篇数始终排在首位,到 2021 年增至美国 2 倍。从论文引用次数进入前 10%的篇数来看,中国 2019 年跃居首位。2021 年达到比美国多 7 成的 7401篇;斯坦福大学数据显示2021年中国提交的人工智能专利申请全球占比超50%。

从基本操作系统看,国内已经具备建立 AI 底层框架的能力。

深度学习框架是实现算法的基础架构和工具,可类比为开发过程中必须使用的操作系统(如游戏制作过程中的虚幻引擎)。

从技术定位看,AI 框架对下调用底层硬件计算资源,能够屏蔽底层差异并提供良好的执行性能,对上支撑 AI 应用算法模型搭建,提供算法工程化实现的标准环境,是 AI 体系的关键核心。

目前海外 AI 框架领域已经形成 TensorFlow(Google)、PyTorch(Meta) 双寡头格局,国内主流 AI 框架主要有 PaddlePaddle(百度)、MindSpore(华为)、MegEngine(旷视)、OneFlow 等,从 Github 指标看,我国主体推出的 AI框架中,华为 MindSpore、百度飞桨引用次数、点赞数、贡献者数量占优。

但 ChatGPT 在算法上的突破更多在于思路而非具体理论,是“菜谱”而非“食材”的创新,这成为了复现的难点之一。

2022 年 11 月,OpenAI 上线了机器人对话模型 ChatGPT(GPT-3.5),引入了 RLHF(基于人类反馈的强化学习):利用人类的标注数据去对 GPT3/GPT3.5 进行有监督训练,针对模型的多个回答进行排序标注,形成奖惩机制,让模型去拟合人的偏好,从而实现了史上最佳的输出效果。

ChatGPT 并未实现任何底层理论的创新,更近于多种前沿算法理论组合,选取了大量的数据,设计了合理的标注流程,并且将这些融合,真正复杂的是这一过程。

OpenAI 逐步放弃开源,极大增加了国内科技企业的复现难度。

相比谷歌此前公布了大量的模型原理,OpenAI 并未提供开源论文,大量的技术细节并未公开,GPT3.5 的参数规模也并不明确。尽管国内学术及业界均在 AI 领域有一定的积累,历年论文发表及专利数占优,但在复现过程中大量细节都并不明朗,如提示学习的具体机制、算法如何泛化、算法微调的具体环节、数据标签的设置等。

从国产实践来看,学术界已有相对成功复现先例,但尚未工程化落地。百度“文心一言”外,清华智谱 ChatGLM 亦引入了监督微调、反馈自助、人类反馈强化学习等技术,尽管参数量较小,输出表现良好。

2022 年 11 月,斯坦福大学大模型中心对全球 30 个主流大模型进行了全方位的评测,GLM-130B 是亚洲唯一入选的大模型,评测报告显示 GLM-130B 在准确性和公平性指标上与 GPT-3 接近或持平,鲁棒性、校准误差和无偏性均优于 GPT-3。

1.1.2.数据:数据集质量、标注细节处理、用户真实交互是关键

相比传统无监督学习的 GPT 模型,ChatGPT表现更好的原因之一是在无监督学习的基础上提供了高质量的真实数据(精标的多轮对话数据和比较排序数据),主要得益于敏感词标注领域技术投入、对公众开放后形成的数据飞轮。

OpenAI 并没有公开训练 ChatGPT 的相关数据集来源和具体细节,我们参考 Alan D. Thompson 文章,判断主流大模型数据集来源可分为六类,分别是:维基百科、书籍、期刊、Reddit (社交媒体平台)链接、【【淘密令】】(大型数据集)和其他数据集(GitHub 等代码数据集、StackExchange 等对话论坛和视频字幕数据集)。

国内厂商在中文训练数据方面有一定优势,以百度为例,ERNIE 3.0 的中文预训练语料数量最多,主要来源为 ERNIE 2.0(包括百科、Feed 等)、百度搜索(包括百家号、知乎、铁算盘、经验)、网络文本、chatgpt、 QA-short、Poetry 2&Couplet 3、医学、法律、金融等领域的特定数据以及百度知识图谱(超过 5000 万条事实)。

但中文互联网语料质量相对较差,优质的中文标注数据集匮乏,使用英文数据进行预训练更为可行。

RLHF 论文中的训练数据英文占比极高,但对中文和其他小语种能力的提升非常显著,可见 RLHF 对模型能力的提升能够跨越语种,以 ChatGLM6B 为例,该模型在 1:1 比例的中英语料上训练了 1T 的 token 量,兼顾双语能力,我们认为中文数据集的薄弱对于国产大模型而言并不构成较大阻碍。

精细标注、对标注人员的培训是技术难点。

ChatGPT 的前身 GPT-3 已经展示了非常强大的语句串联的能力,但互联网的词汇存在负面信息,单纯凭借学习能力无法来清除这些训练数据。

GPT3.5给 AI提供标有暴力、仇恨语言等标签,AI工具就可以学会检测这些内容,并在它触及到用户之前将不良内容过滤掉。尽管标签主要通过人工标注,具体标注技术细节、对标注员的培训等仍需要国内科技企业探索。

科技企业能够参考 GPT3 的路径,利用海量用户交互提升数据质量。作为国内最大的搜索引擎服务商,百度在真实数据和用户需求理解方面有较多积累,能够对旗下的 AI 大模型进行充分的训练和预测,进而使得 AI 大模型的智能化水平不断进化。

参考 GPT3 的经验,GPT-3 是 OpenAI 正式对外提供服务的模型。通过将模型开放给公众,GPT3 收集来自用户输入内容的多样性数据,从而迭代出效果越好的模型。若文心一言向公众开放,我们判断真实的用户调用与模型迭代之间有望形成正向循环,缩窄国产大模型产品与 ChatGPT 的差距。

1.1.3.算力:更多关乎资金充足程度与公司战略类

ChatGPT 产品的复现需要庞大的算力支持。浮点运算(FLOPS)的数值通常与参数数量成比例,随着 GPT、GPT-2 和 GPT-3(当前开放的版本为 GPT-3.5)的参数量从 1.17 亿增加到 1750 亿,预训练数据量从 5GB 增加到 45TB,算力需求随之增长。

据 OpenAI,训练一次 13 亿参数的 GPT-3 XL 模型需要的全部算力约为 27.5PFlop/s-day(即 1PetaFLOP/s 效率跑 27.5 天),训练一次 1746 亿参数的 GPT3 模型需要的算力约为 3640 PFlop/s-day(即 1PetaFLOP/s 效率跑 3640 天),需求呈现指数级增长。

衡量头部厂商能否支撑训练及推理环节的算力需求,我们认为更多需要考虑资金充足程度与公司战略。模型层企业更多是算力的消费者,美国芯片出口政策影响存在但并不致命。

对试图复现 ChatGPT 的头部厂商而言,我们认为算力更接近于自由流通的商品,只需高额的资金投入即可完成布局。

尽管美国出口限制政策影响较大,国内仍能采购性能更低的前代算力芯片,只是相对牺牲了计算速度。

国内头部科技企业多已完成数据中心建设,能够实现算力资源部分自给。

Structure Research 数据显示到 2022 年全球超大规模自建数据中心总容量将达到 13177 兆瓦(MW),中国超大规模数据中心企业占亚太地区的 24%,阿里巴巴、华为、百度、腾讯和金山云均位于领先位置。

长线投入战略、充足资金预算,是复现 ChatGPT 所必须的要素。因此,战略押注意愿明确、现金流充沛的国内厂商更有希望弥合算力上的差距。

以百度为例,2017 年提出“All IN AI”后资本开支波动上升,2022 全年资本开支(除爱奇艺)高达 181 亿元,同期经营现金流增长 30%至 261.7 亿元,截至 2022 年末公司用于进行资本支出的现金及现金等价物余额为 531.6 亿元,现金流稳健、流动性充足。

1.2.工程化处理与分发能力是更高的壁垒

从国产替代角度看,算法、数据、算力壁垒并非不可逾越,随着人才流动、时间推移和研究进步,大模型性能很可能逐渐趋同。

从落地角度来看,ChatGPT 更多实现了工程而非技术上的成功,即完成了从底层技术到工程落地再到产品的跨越,在成本、规模和效率之间实现了正确的权衡取舍。

1)从 B 端来看,此前的 AI 公司需要根据不同的任务训练出不同的模型,算法很难复用于其他场景。OpenAI 提供了泛化/通用的算法,让更多的使用者受益并为之消费,各行业厂商可以利用统一的预训练大模型+微调来直接应对不同的任务,后续开发工程量大幅下降,实现了 AI 开发的工业化。

2)从 C 端来看,ChatGPT 做到了在稳定输出的同时容纳破亿月活用户,具有低使用门槛、高效、强传播性的特点,开启了 AI 领域大众化的序章。

梳理海外AGI产业链发展趋势,我们判断国内厂商相对优势存在于国内局部场景的应用。

AGI 受益产业链可划分为 1)上游数据及底层算力供给;2)中游 ToB 定制化模型开发;3)下游形成 ToC 应用并进行分发。

海外目前涌现的公司则集中于以下三类:

1)专注于大模型开发的公司,对外允许开发者以其预训练大模型为底座,通过微调或 API 针对不同的细分领域开发应用场景,如 OpenAI;

2)兼具大模型开发及垂直应用一体化能力的公司,如 Midjourney;

3)单纯调用大模型 API 开发具体场景应用的公司,如 JasperAI。因此,考虑到中外环境的显著差异、技术水平尚有差距,“模型及服务”模式下提供国内特定场景下的定制化商业模型,或面向国内C端消费者提供内容生产应用,更加有望成为国内厂商弯道超车的机会。

这意味着国产 ChatGPT 的落地在技术准备之外还需要两项核心要素:工程化与分发能力。

1)工程化能力,即能够利用更低的成本和更高效的迭代做出先进的大模型应用,制作更高效、廉价、贴合市场的产品,能够同时容纳亿级用户在线。

大模型调优周期长、难度大,产业相关工程化经验欠缺,难以实现大模型对数据的充分吸收与利用。

在 ChatGPT 之前,已有多个行业领域涌现出智能化应用,但其工程化落地情况并不理想。

ChatGPT 做到了在稳定输出的同时容纳破亿月活用户,具有低使用门槛、高效、强传播性的特点,但其对于训练集群、代码编译等细节的优化处理至今未披露,而这些工程化细节正是国内厂商目前核心差距所在。从主流科技企业用户数来看,百度、淘宝、微信等国民级应用均能承载亿级日活,我们认为国内厂商完全具备大 DAU 场景下 AI 工程化处理的潜力。

2)充沛的 C 端用户及 B 端应用场景,即更低的分发触达成本、更快速的产品应 用迭代,此时下游流量的充沛程度便是变现的壁垒。

应用分发是国内企业的长项,头部厂商本身已经建起规模及心智壁垒,全球竞争力坚实,且变现路径可以复用,商业模式无需再探索,如要落地 AGI 相关应用,获客成本远低于新进入者。

1.3.商业化路径已经明晰,搜索场景鲜明契合

除开星辰大海的展望,商业化变现的落地更能驱动企业加大科技投入,而类 ChatGPT 产品的变现逻辑已经相当坚实。

1)为开发者直接提供 API调用接口。

此前诸如 Google、Open AI等头部厂商将自身开发的预训练大模型开源,供下游应用者在这些模型上进行参数的微调。但随着预训练语言模型的规模急剧增长,出于商业角度考虑和高昂的端侧微调成本,大规模预训练语言模型不再被开源,转而以提供 API的方式供下游用户在特定场景下进行推理使用。

以 ChatGPT 为例,OpenAI 并未公布其基础模型(GPT3.5、GPT4)技术细节,用户仅能够在自身应用内通过 API 调用其模型。

从这一角度看,“文心一言” 已经以 API形式接入 650 家企业,发布当日已有 6.5 万家企业申请测试,签约 5 家客户,为 B 端降本增效的起始逻辑已经明晰。

2)“模型即服务”,即为细分行业定制大模型。

厂商以公司的预训练大模型底座结合用户的数据集,通过微调来提升模型在某一细分领域的表现,但这一模式可能随着 AGI(通用人工智能)的发展逐步式微,因为端侧精调成本昂贵,通用大模型出现后出售 API接口会更主流。

3)面向 C 端提供杀手级应用。

头部产品 ChatGPT 日活超一亿人,SaaS 公司 JasperAI通过调用 GPT-3 API已实现超 7500 万美元收入,国内头部科技企业既具备自建应用的能力,也具备向 JasperAI等广大创业公司提供 API的能力。

4)将 AGI 技术嵌入到自身成熟应用中,提供更强用户体验,进而推动用户为附加服务付费。

目前搜索引擎及办公软件领域已有成熟案例,2022 年 2 月微软将 GPT 模型嵌入至其搜索引擎 Bing 中,chatgpt 能够与用户对话、协助用户起草文本;此外微软已经将 chatgpt、云计算模型 Azure 中悉数加入 AI 大模型,线上会议软件 Teams 已经推出了 AI撰写会议纪要和邮件的付费服务。

ToC 对用户心智的冲击更为直观,我们高度重视“文心一言”为百度搜索带来的增量。

搜索平台是最直观的对话模型使用场景,与类 ChatGPT 产品双向互补:

1)引擎的海量数据能够弥补对话模型数据更新不及时的缺陷。ChatGPT 的训练数据集仍停 留在 2021 年,因此难以回答时效性问题,而 BingChat 基于搜索库内容对内容进行回答、给出相应的搜索结果。

2)GPT 的语言处理能力又使得模型能够对搜索结果进行直观集成,增进用户体验。目前微软为 chatgpt 设置了三种性格状态,用户可根据偏好自行设定对话模型的回应风格。

Bing 的崛起已经证明了人工生成智能作为新介入因素能够对曾经的垄断巨头产生威胁,百度将“文心一言”嵌入搜索具有必要性。此前海内外搜索市场均呈现一家独大的格局,据 statcounter,截至 2022 年 6 月,Google 在全球搜索引擎的市占率达到 92.42%,远超第二名 bing 的 3.45%、第三名 Yahoo!的 1.32%。

但 chatgpt 的发布打破了这一稳态,data.ai 数据显示新功能上线当日必应 Bing 应用程序的全球下载量在一夜之间猛增十倍,蹿升至苹果 App Store 应用商店最受欢迎的免费应用榜 中的第十位,并使其成为第二大最受欢迎的免费生产力应用,仅次于谷歌邮箱 Gmail。

截至 3 月 10 日,Bing 活跃用户已突破 1 亿人,增幅超 600%。我们认为作为国内搜索巨头,百度在搜索领域进行人工生成智能布局已经成为战略上的必需。

从 Bing 的成功实践来看,尽管接入 GPT4 带来了边际成本的显著增长,但商业模式已经雏形初现。随着用户数量级的提升,用户对话带来的推理成本(我们将在下文对搜索业务推理成本进行年化分析)将显著拉低搜索业务的毛利率,但人性化的对话体验是提升用户基数、用户粘性及使用时长的利器,Bing 借此实现了用户数量的快速增长和变现,广告引流已经开始。

Bing 根据用户输入的问题在下方广告位对电商产品进行展示引流,沿用了搜索广告的旧逻辑,即基于用户的搜索关键词,对应到精确的广告,Chat 界面事实上提供了新的广告位。

我们认为这只是新搜索引擎变现的起点,后续微软生态内的各类插件和增值服务均有望集成至 Bing,带来新的商业变现机会,这也是一条百度完全有能力复制的路径。

短期我们关注“文心一言”等产品对科技企业财务状况的影响,将增量成本拆分为训练成本、推理成本及数据标注成本(暂不考虑人力支出及维护费用),测算大模型落地搜索页面后年均增量成本约为 16 亿元,这一金额有望随着技术进步逐步降低。

具体来看,ChatGPT 算力成本包括训练、推理及数据标注。

1)训练:基于大量数据集来调整和优化模型的参数,对模型做反复迭代计算,是大模型落地前的成本环节;

2)推理:大模型的运行成本,即模型基于用户输入信息进行推理计算并输出过程中产生的成本,与用户数量;

3)数据标注:通过数据标注提高数据集质量。

2.1.训练:前期固定投入较大,莱特定律驱动下成本必然


百度的另一个软件是什么 百度改版到什么时候

百度的另一个模式,百度的另一个网址,百度的另一个app,百度的另一个说法

百度还没准备好,但还是发布了。

过去几个月,chatgpt 掀起的浪潮一刻也没有停歇,包括国内大量公司和科技从业者在兴奋于 chatgpt 出现的同时,也在期待中国自己的 chatgpt。在所有宣称将要推出类 chatgpt 产品或大语言模型的公司中,百度是最早官宣的一批,也是第一个选择正式发布的公司。

3 月 16 日,就在 GPT-4 重磅升级的两天后,百度如期在北京总部正式发布了旗下大语言模型——文心一言。发布会现场,百度创始人兼李彦宏展示了文心一言在文学创作、商业文案、数理逻辑推算、中文理解和多模态生成五个方面的能力。

图/百度

不过根据李彦宏的说法,由于生成式需要输入较长的文本和时间,不适合在现场实机演示,故而选择用录屏形式展示文心一言的生成效果。坦白讲,作为一场商业产品发布会,可以理解,毕竟一旦出错将会极大影响外界的看法和股价,谷歌此前推出生成式 AI 聊天机器人 Bard 时就因为一个「答非所问」的错误:市值蒸发了上千亿美元。

但也要承认,录屏的发布形式始终也让这场产品发布会显得有些空洞——谁也不知道录屏背后会有多少次尝试和人工痕迹,所以才有人调侃百度发布了 ChatPPT。反馈到股市上,文心一言不仅没有抬升百度股价,甚至在发布后一度跌超 10%。

李彦宏在发布会上也提到,文心一言并不完美,但市场有需求就必须要推出来。然而并没有准备好的文心一言,是否选对发布时间和节奏,目前仍未可知。但尽管如此,还是能从这场发布会的内容中一窥文心一言的面貌,以及百度的野心与困境。

文心一言距离 chatgpt 有多远?

根据发布会上的视频展示,文心一言面向大众用户的交互界面基本与 chatgpt 类似,都以对话机器人形式回应用户的文本输入。

图/百度

但文心一言并没有像两天前发布的 GPT-4 一样支持对图片信息的总结和分析——读图、识图,甚至懂梗图,OpenAI 就将去年的一张梗图输入并附上文字要求 GPT-4 解释笑点,结果 GPT-4 准确地指出了「梗」是「将过时的巨大 VGA 接口插入现代的小巧智能手机的反差」。

图/OpenAI

不同的是,文心一言支持了语音和视频的输出。「语音」支持只是通过 TTS 语音合成技术以四川话读出文本内容,并不值得一提,但「视频」生成的难度明显更高。仅从录屏展示来看,尽管模板痕迹明显,但生成视频(视频素材+字幕)至少还是可堪一用。

而具体文本理解和生成能力上,百度在第一个「文学创作」环节展示了文心一言的续写《三体》的创意能力,比如续写可以从哪些角度出发:

图/百度

这些回答本身不存在对错,但如果我们对比下 chatgpt 的回答,一定程度上能发现文心一言的文本输出更「泛泛而谈」,chatgpt 的输出会更加具体:

图/chatgpt

此外,百度在「商业文案」环节展示了如何用文心一言起公司名,我们也以同样的问题询问了 chatgpt:

图/百度

图/chatgpt

一个值得注意的问题是,如果不强调中文名,chatgpt 会自然倾向使用英文名。

就像我们在之前的文章中提到的,OpenAI 在训练 GPT-3.5 和 GPT-4 大语言模型时的语料库、基准测试和开发人员都是以英文为主,所以 chatgpt 在英文的理解和生成能力胜过包括中文在内的其他语言。

这也是百度的优势所在。

百度可能更懂中文

尽管在整体能力上,很难期待百度一跃超过 chatgpt 和 OpenAI,但百度文心一言相比 chatgpt 在中文信息的可靠性上可能会有一定优势。除了上面提到的语言倾向问题,chatgpt 不论是 GPT-3.5 还是 GPT-4 版本,训练用语料库都截止于 2021 年 9 月,在涉及很多未知信息时容易编造内容,比如在介绍电视剧《三体》演员阵容时再次「胡编乱造」:

图/chatgpt

相较之下,百度文心一言和微软 chatgpt 都正确指出了具体的演员阵容,chatgpt 还提醒了我们另一个 Netflix 版本的电视剧《三体》。

发布会上,李彦宏表示,百度和文心一言更懂中文和中国市场,甚至单独在五个环节中设置了「中文理解」的环节来展示。以百度官方演示的「洛阳纸贵」为例,chatgpt 再次出现了「幻觉」,文心一言和 chatgpt 基本指出了正确典故,但接下来只有文心一言正面回答了「当时洛阳的纸到底有多贵」:

图/百度

当然,考虑百度选定的问题以及录屏的形式,还很难就此断定「文心一言在中文上比 chatgpt(GPT-3.5)更强」,但可以肯定的是,「中文」的优势一定是百度乃至未来中国类 chatgpt 产品发力的重中之重。

而同时百度也展示了自身在行业应用上的优势。李彦宏引用百度在人工智能上的四层架构——(AI)芯片层、(深度学习)框架层、模型层、应用层时谈到,百度的多层架构协同效应将推动 AI 实现更快的迭代速度,以及在应用上也会有更高的效率和成本。

文心一言主要分为两部分,一部分是面向普通用户,通过嵌入百度搜索,用户可以直接与文心一言大语言模型交互,预计类似微软的 Bing 搜索和 Chat 的形式;另一部分面向企业客户,提供上述提到的四层人工智能全栈能力,从底层的云计算能力到深度学习框架,再到大模型和应用。

图/百度

事实上,百度相比 OpenAI 更早开启了 AI 大模型的商业化进程,在百度文心大模型的官网就展示了与不同领域大公司合作开发的行业大模型,此外还宣布已经有 650 家合作伙伴接入了文心一言,包括之前官宣的魅族、携程、兴业银行、美通社等。

但最终百度还是在用户侧证明文心一言的表现实力,否则从合作伙伴到客户到头来只会放弃百度。

百度必须拥抱 chatgpt

我们高估了 chatgpt 的意义吗?比尔·盖茨将其比作互联网的诞生,微软 CEO 纳德拉说它堪比工业革命,英伟达 CEO 黄仁勋称其为 AI 的「iPhone 时刻」。

我相信,但好像也无法笃定未来一定属于类似 chatgpt 的产品,不过可以肯定的是,chatgpt 将改变搜索引擎的产品形态和业务模式。在这一点上,去年广告收入(包括搜索广告收入)占比分别为 60%和 77%的百度、谷歌都一样,必须面对 chatgpt 带来的冲击和变革。

另一方面,百度和谷歌在很早就率先拥抱了 AI 技术,并在长达十年的时间跨度上重金投入研发。百度在 2022 年将全年核心收入的 22.4%,即 214.16 亿元投入了核心研发,而据欧盟委员会发布的报告,谷歌在 2022 年更是投入了 279 亿欧元研发经费,居全球第一。

但在 chatgpt 之前,庞大的研发积累始终没有找到合适的商业化出口,颇有些「英雄无用武之地」。

chatgpt 带来的突破确实带来了出口,或者说风口。当用户、开发者和企业客户都在拥抱 chatgpt,百度不可能放弃,就像李彦宏说的,文心一言没有准备好却还是要发,是因为有市场需求。

题图来自百度

来源:雷科技

       原文标题 : 百度正式发布文心一言:比chatgpt差一点,但可能更懂中文