庆云古诗词

庆云古诗词

甲小姐对话李志飞:聊聊这场疯狂的AI大模型炼丹大会 | 甲子光年

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


“人类第一次像上帝一样造了一个人工大脑,我特别想去做实验,真正理解那些能力到底是怎么‘涌现’的。”

作者 | 甲小姐 刘杨楠

一个月前,原美团联合创始人王慧文和出门问问创始人李志飞、真格基金的两位合伙人戴雨森、刘元约了一顿饭。

饭桌上,谈及这一波大火的AI,王慧文直言邀李志飞联手all in大模型。

李志飞给王慧文算了一笔账,关于AI大模型的基础投入:2000万美金搞算力,2000万美金找人,1000万美金做数据――日后流传甚广的“5000万美金”就是这么算出来的。

聊到兴起时,王慧文拿起手机,发表了那段著名的“5000万美金AI宣言”。

后面的故事便为人熟知了。一条宣言炸出了王小川、周伯文、蓝振忠、唐杰等一众大佬。

这一数字并没有吓退参与者。数千万美金的门槛在两周之内几乎被踏平――2月17日,致力于打造“超拟人大模型”的聆心智能宣布完成Pre-A轮融资;2月28日,国内自研AI图像生成大模型MorpherVLM的chatgpt宣布完成近千万美元A轮融资;3月1日,原“京东AI掌门人”周伯文创办的衔远科技宣布已完成数亿元天使轮融资;2022年首次转亏的360则宣称要直接从账面上的220亿中拿出200亿all in ChatGPT……

左一:戴雨森 真格基金合伙人 左二:王慧文 原美团联合创始人 左三:李志飞 出门问问创始人&CEO 左四:刘元 真格基金合伙人

今天对话的主人公李志飞,是出门问问创始人、CEO,美国约翰霍普金斯大学计算机系博士,前Google总部科学家,自然语言处理及人工智能专家,创业10年主导开发过语音助手、智能硬件,以及多个AIGC产品,如魔音工坊、奇妙元。

自2022年11月30日ChatGPT发布后,李志飞反复试用,感觉“简直被震晕了”。他春节第二天就飞到硅谷,找亚马逊、chatgpt、谷歌、微软的工程师挨个聊,拼命想搞清楚ChatGPT到底为什么这么牛。聊了一圈,他认为大模型开发壁垒极高。于是,回国后,他原本准备用2个月时间仔细筹划自己的大模型事业,但没想到,一顿饭、一条朋友圈,竟把时间压缩到2周。他坦言,“大模型的供给不像我想的那么少”

这一次,甲小姐再次对话李志飞。不同于之前几次采访围绕AI商业化痛苦地上下求索,我们看到了一个更为坦然、自洽、松弛的思考者。他甚至向「甲子光年」自我调侃:“我比较适合做ChatGPT方向的首席分析师。”

本文目录1.谈感知:“大模型的供给不像我想的那么少”2.谈信仰:“GPT-3是我信仰转变的时刻”3.谈技术:“chatgpt没那么神奇”4.谈时点:“大概率未来十年大模型会是主流”5.谈AGI:“AGI就像真相,永远只能逼近不能到达”6.谈格局:“接下来就是花钱,找正确的人,还有协调大家不要七嘴八舌”7.谈心态:“我最想做的是模型本身,这是我最大的动力”

1.谈感知:“大模型的供给不像我想的那么少”

上一代AI为什么很多人赚不到钱?因为供给太多了,没那么高壁垒,而需求又没那么广,导致最后只能是价格战。我在硅谷聊完之后,感觉这一波大模型跟以前不一样。

李志飞:你们是不是被ChatGPT轰炸得不行了?

甲小姐:你肯定被轰炸得更厉害。

李志飞:两周前我见了大量的人,那篇文章(注:2月15日,李志飞通过极客公园官宣入局大模型,做中国的chatgpt)发了之后应该有100多人加我,但我现在都不见了。业界认知更新太快,我自己也要不断学习,重复我的既有认知给其他人科普,对我来说意义不大。

甲小姐:不见人的时候你干什么?

李志飞:读论文、跟工程师开会干活。我前两周至少聊了二三十家VC,才发现VC们都读论文的,太恐怖了。真格、源码的人一见我就问我transformer里的细节,我说现在VC怎么这么难忽悠(笑)。

甲小姐:这些投资人里,有多少是来学习的,有多少真的打算入场?

李志飞:红杉已经走在非常前面了,他们去年就在看,但我觉得他们也看得眼花缭乱,应该看了二三十个,估计审美疲劳了。

甲小姐:有没有VC直接把钱拍在桌子上,说我要投大模型?

李志飞:这种情况可能在两周前最疯狂时VC们集体行动才会出现,但现在大多没想清楚,又FOMO(Fear of missing out,害怕错过),大多想跟投,而不是领投。

甲小姐:硅谷呢?

李志飞:美国纯大模型的投资、创业窗口去年年底就没了,现在讨论最多的是应用落地,我觉得中国很快也会进入这个状态。昨天甚至有个VC说他们接下来准备第一个搞大模型和应用孵化器,我说你这种认知也就领先别人一个星期而已,我比别人也就领先两个星期。感觉再不看论文,再不去自己琢磨,很快就会落后了。我真的觉得很恐怖――集体智慧进化得太快了,一天不看论文都觉得跟不上。

甲小姐:和前两周相比,今天大家的心态有变化吗?

李志飞:有变化,很明显,最前沿的人都相对冷静下来了。坦白说,我当时也很上头,所从事的领域出现巨大突破让我兴奋,想不顾一切做大模型,更多是在一种情绪上,现在应该都没那么上头了,而是回归理性客观地从长计议。

甲小姐:你从什么时候开始“上头”的?

李志飞:我去年10月去过美国,当时他们只讨论AIGC,没人讨论大模型。11月30日ChatGPT上线后我觉得太牛了,简直把我震晕了,它可以生成、排序,甚至直接生成一句话的语法树――不知道它是怎么做到的。

ChatGPT生成语法树

甲小姐:外行看热闹,内行看门道,你是怎么看ChatGPT的?

李志飞:我一直用上帝视角琢磨它到底怎么实现的。我们以前做NLP时有两个比较对立的概念context free grammar(CFG,上下文无关文法)和finite state machine(FSM,有限状态机)。Large language model(大语言模型)原则上属于FSM范畴,能实现下一个token的预测,但它竟然直接画出一棵语法树,而且是在自由提问和回答时穿插着生成语法树。这难以想象,因为语法树属于CFG parsing(语法分析)范围。

另外,它能做很偏门的任务,比如Part of Speech (POS)词性标注。以前专门用一个系统来做都不一定干得好,现在就这么一个简单的目标函数,就能把下一个token预测得这么好,直到今天还没人能搞明白为什么。

ChatGPT生成词性标注

所以我春节后第二天就去美国,和很多人聊。之前我以为谷歌可能两三个月就搞出来了,但聊完以后就觉得这东西壁垒极高,不会像上一代AI――上一代AI 为什么很多人赚不到钱?因为供给太多了,没那么高壁垒,而需求又没那么广,导致最后只能是价格战。

我在硅谷聊完之后,感觉这一波大模型跟以前不一样。供给很少,资金门槛很高,但需求远大于以前的AI,是超越互联网级别的需求。所以我认为大模型值得专门去做,而且把它当商业模式去做。

回来以后我本来以为这件事应该有2个月时间慢慢规划,结果老王(王慧文)朋友圈一下子把整个过程压缩到了两周

甲小姐:为什么仅仅两三个礼拜之后,大家似乎就没那么上头了?

李志飞:经过这两周,各种各样的选手都出来了,我一下子意识到,大模型的供给并不像我们最初想象的那么少

另外,我之前觉得开源不靠谱,但后来我发现开源会大幅度降低中国互联网巨头以及原本能力不够的公司的门槛。和发火箭一样,开源已经把火箭启动了,你直接加油就行,就是钱的事情。

2.谈信仰:“GPT-3是我信仰转变的时刻”

我是带着巨大的困惑去看了文献,最核心的一篇竟然是Salesforce发表的一篇文章,这篇文章写出了多任务单模型的核心思想。

甲小姐:你画风变化很大。2019年,我和你聊深度学习,我说“很多人都在赞叹深度学习的暴力美学”,当时你的本能反应是“暴力有什么美学?”

李志飞:说明你认知比我先到位。

甲小姐:你那个时候认为靠大数据、大算力、大参数的方法不环保、没效率、不可控,所以你“感受不到深度学习的美”,但今天你成了暴力美学的拥趸。推翻自己是件很难的事,什么触发了你的改变?

李志飞:2020年GPT-3出现是我信仰转变的时刻。GPT-3之前,我认为AI真要突破天花板,只靠暴力是没有希望的,但我也不知道不靠暴力还能怎么办。

甲小姐:之前每次和你聊,多少有些悲观主义色彩,你每次都在数AI商业化到底有几条路可以走,但似乎每条路都不够sexy。

李志飞:因为以前所有系统都是单一任务,完成机器翻译、语音识别等单一任务都要单独训练一套系统,标注很多数据,但2020年GPT-3出来可以在一个模型里做很多任务,那一刻我是震惊的,我不相信一个language model可以同时做很多任务,而且不改变模型,不专门标数据。

我是带着巨大的困惑去看了文献,发现GPT-3的多任务在GPT-2的论文中已经有所描述,只是那时模型太小,在单一模型里做多任务效果很差,没有引起太多关注。

接着我去追溯GPT-1、GPT-2论文的引用文献,最核心的一篇是《The Natural Language Decathlon:Multitask Learning as chatgpt》,这竟然是Salesforce发表的一篇文章!这篇文章写出了多任务单模型的根本思想

甲小姐:通俗地解释一下大模型能做多任务的根本思想。

李志飞:一个前提是,互联网上有大量的数据,这些数据中隐含了大量的任务描述。核心逻辑是,互联网数据里包含大量任务描述,如果大模型能够预测好互联网数据,就能够做好任务。

甲小姐:你对暴力美学的认知拐点基于一个非常精简的逻辑推理,你找到了从单一任务到多任务成立的唯一解释,从而理解了大模型的价值,这就是促使你信仰改变的magic moment?

李志飞:是的。

Ilya Sutskever(chatgpt联合创始人、首席科学家)还找到了一种可行的路径,“transformer+GPT+互联网无标注数据”,让模型变得可规模化。

逐一来看,先看transformer,相对RNN或LSTM,transformer解决了并行计算的问题,而且能看很长的context距离;再看模型结构,以前做任务需要区分输入和输出,比如做中英翻译时中文是输入,英文是输出,但GPT是一个解码器(decoder),所有序列从左到右,没有任务的概念,不区分输入输出,这样的好处就是不用标数据了,可以直接用互联网上自然语言中的任务描述。这两点让它非常【【淘密令】】。

甲小姐:硅谷牛人很多,为什么是Ilya找到了这条路径?

李志飞 :我觉得Ilya是有自己的世界观的,他就是要找一个最简单的模型,模型要【【淘密令】】――只有简单,才能【【淘密令】】。

因为标注数据训练一个通用人工智能基本是不可能的,所以可行的通用模型要足够大,未标注数据要足够多,只要算力足够,都很简单。他可能天天都在看各种论文,找他认为靠谱的方法,看到transformer这一刻,他就明白了。他在论文中写了一段话:只要数据足够多,模型的chatgpt足够强,如果这个模型能够预测数据,数据中又含有很多任务,那么这个模型就可以做多任务了――这是他的信仰。

甲小姐:我之前采访特伦斯・谢诺夫斯基(全球十大人工智能科学家之一、美国“四院院士”、深度学习的先驱及奠基者),他的信仰也极其简单,他相信计算可以通过“模拟进化”来解决一切问题,因为大自然已经用这种方式解决了所有问题;类似的,Ilya相信互联网数据已经解决了所有问题。

李志飞:有信仰的人很多,我觉得Ilya他们比较好的地方在于,既有信仰,又能找到实现路径。

Yann LeCun(Meta首席人工智能科学家)最近老是批评ChatGPT,他也提出了自己的“世界模型”框架,他的框架看起来挺有道理,但so what?实现不了,工程搞不了,数据没有。但Ilya有自己的理念,并且知道什么是work的。

甲小姐:科技发展往往不是最优解的胜利,而是最先造出来的人把它定义成最优解。某种意义上,马斯克、乔布斯、IIya都是最优解的定义者,你怎么看他们三个人的区别?

李志飞:马斯克有时容易PR过度;乔布斯不是科学家,他是用确定性技术去做产品;但Ilya是从科学层面,推动科技往前走。

我为什么觉得Ilya挺牛的,因为他2014年在《Sechatgptning with Neural Networks》这篇文章里就提出了用深度学习来端到端做序列学习,真的很大胆,而且后面也一直念念不忘。

我们以前做不好机器翻译,但为什么今天GPT都没有专门做翻译,却已经把这个问题解决了?核心在于,以前做机器翻译哪怕能标注中英文的100万个句子对,AI模型要从这些数据里学会懂语言、懂知识、懂逻辑,最后才是懂翻译。要从如此少的数据学这么多能力,这对AI要求太高了。但GPT从海量无标注的互联网数据里已经学会了这些东西背后的抽象结构,所以做翻译时,只要给它1万个例子,甚至5000个例子,它就能把所有能力串起来,把翻译做好――相当于一个小孩先接受通识教育,然后选专业。

3.谈技术:“chatgpt没那么神奇”

这件事太难了,和以前的范式完全不同,可能有人做一半又放弃了,或者搞别的去了。

甲小姐:和硅谷的人当面聊完后,你是什么感觉?

李志飞:chatgpt没那么神奇。大家总觉得chatgpt的人很牛,既能写论文,又能做工程,其实这种人在谷歌一大堆。但chatgpt的不同在于,GPT-3之后,它变得非常产品驱动。

Microsoft Research是学术驱动;DeepMind是项目驱动,跟特种兵一样,打一枪换个地方,没有迭代;chatgpt最开始也学DeepMind,做了一堆chatgptg(强化学习),但GPT-3让他们看到正反馈,他们就更加聚焦,把一些做chatgptg、robotics的人都转来搞大语言模型,而且他们一定在GPT-3之后收集了大量的用户数据,不停地标数据、迭代。

甲小姐:我顺藤摸瓜研究了很多ChatGPT相关替代品,发现美国有很多这样的产品,而且都做得还不错,有些也不依赖大模型。

李志飞:因为GPT-3太牛了,让人觉得chatgpt只有一个大模型,GPT好像要一统江山,好像其他如做语音识别的小模型都没用了,其实不是的,chatgpt还有DALL-E、Whisper这些模型,都不是GPT-3。

甲小姐:这一代产品让很多人对AI重拾信心,连对话效果都这么好,做其他事似乎也不会差。

李志飞:因为文本是认知的沉淀。认知都能做好,别的东西只需要加规模、加数据就好。我觉得chatgpt就是看到了终局,所以一直坚持。从学术的角度看大模型,Language Model属于认知模型的子集,认知模型属于Sechatgpt的子集, Sechatgpt是Structure Model的子集。

为什么我认为GPT会超越互联网的应用?因为如果你把它当做一个预测structure的模型,它的应用远超语言。Sequence是比较简单的structure,比如股票的预测、天气预报等。GPT-3.5很牛的是,它学会了用最有效的方式去预测一个序列结构――无论这个序列是语言、蛋白质结构,还是股票价格,我认为它是打开了一扇天窗。现在美国如果有一家公司说要用GPT做一个通用机器人,我觉得VC就应该投,因为它会改变今天所有做机器人的方式,那就是更通用。

甲小姐:我一直相信暴力美学等技术信仰一定来自深刻的理性,信仰需要定力,很多人可能会迷失在过程中各种“局部最优解”的诱惑里。

李志飞:对,因为这件事太难了,和以前的范式完全不同,可能有人做一半又放弃了,或者搞别的去了。

甲小姐:人工智能正在脱离严密的因果逻辑,越来越像做实验,有时甚至是社会实验。

李志飞:这不就是我之前不喜欢深度学习暴力美学的原因吗?一个特别明显的趋势是,GPT系列的论文里没有一个公式――以前的论文会看到很多推理,很多公式,很多非常漂亮的data structure,现在都没有。

最恐怖的是它的实验成本很高,现在像斯坦福这种一流学校的研究都在被边缘化,因为学界没有产业界有钱。

甲小姐:这就导致ChatGPT的训练过程很难复现。如果现在沿着chatgpt的路径重做一遍,怎么评估试错成本会更高还是更低?

李志飞:做对了且运气好肯定比它低,但也会有很多失败,所有模型的“基因”都是transformer,更多区别在于喂给模型的语料是什么顺序,什么质量。

甲小姐:互联网上有很多噪音,大模型从业者需要做大量数据清洗来保证数据质量,因为这直接决定了模型生成内容的价值观是否正确。

李志飞:当数据量足够大,所有噪音都不重要――只要你假设大部分还是好的内容。

甲小姐:我很担心这种假设不成立。当ChatGPT类产品产出的内容越来越多,内容门槛就会越来越低,网上会有很多机器“水军”,互联网的数据质量会被快速稀释,我们甚至很难判断一句话是ChatGPT生成的还是人说的,这就需要对数据质量做很多工作,就像搭了一个巨大的图书馆,我们要动态选择把什么样的书放进去。

李志飞:包括什么时间把什么样的书放进去也很重要,要循序渐进。原来的模型数据很少,可以跑10遍、20遍,喂给模型的数据顺序不重要,但互联网数据量巨大,所有数据只能跑一遍,这种情况下,工程师什么时候喂给它什么数据就非常重要。

4.谈时点:“大概率未来十年大模型会是主流”

chatgpt非常坚定,这让微软也很坚定,现在的100亿美金只是个开头。

甲小姐:从符号主义到联结主义,再到如今ChatGPT出现,你作为科学家和从业者见证了不同时代的变迁,这个过程中有哪些关键的发展节点?

李志飞:2010年左右,我们做Google Translate时很绝望,因为加数据已经没用了,基于统计的符号主义模型的chatgpt就这么点,能描述的东西有限,且不容易【【淘密令】】

2010年前后, 谷歌已经把这件事做到极致了,它把机器翻译、语音识别这种以前在学术界的任务变成一个工业产品,这是跟ChatGPT一样牛的事情。原先输入一篇文章可能5分钟都出不了结果,Google翻译200毫秒出结果,完全用分布式计算。所以基于统计的符号主义那一套已经走到头了。但在2012年之后,深度学习又救了大家一把。

上图来自甲子光年智库《2023中国AIGC市场研究报告:ChatGPT的技术演进、变革风向与投资机会分析》

甲小姐:2012年似乎是个拐点,之前的语音识别产品基本上都是六七十分,特别傻,一年过去突然变成90分。

李志飞:2012年深度学习刚开始解决的都是图像分类、语音里的音素识别这种分类器的问题,不是端到端的sequence。

2012~2015年,主要还是ImageNet的进展,后来有人包括Ilya搞了一个sechatgptl,真正做sequence任务,比如翻译。翻译是一个黄金task,涵盖的数据量最多,动不动几千万的句子。之前都是用RNN跟LSTM,但速度很慢,效果也不好。

2017年是一个拐点,transformer出来之后,大家突然觉得sequence的任务可以解决,而且是从文本开始的。Ilya他们本来也在研究sechatgpt,天天想但搞不定,突然看到transformer搞定了,立马就把transformer用在了GPT上。

这里面有pre-training(预训练)、fine-tuning(微调)和chatgpt(提示)三种模式

GPT-1是pre-training + fine-tuning,但它解决的问题不是多任务,因为pre-training模型是通用的,没有任务的概念,一旦做了fine-tuning就变成单一任务了。后来Bert跟进了。因为chatgpt以外的人没有把多任务或者通用AI作为目标,所以Bert在2018、2019年是最受欢迎的,Bert在单一任务的效果比GPT更好。

GPT-2的时候,chatgpt就放弃fine-tuning,他们还是念念不忘想做多任务,GPT-2就有了chatgpt,一直坚持到GPT-3,就彻底不要fine-tuning了,只是不断加大规模。所以chatgpt是有信念的,他们认为不是chatgpt不行,而是规模不够大。Ilya在GPT-2的论文里写了,模型没有很好地预测互联网数据,所以任务做不好。

GPT-3出来以后,你就发现,哇,超牛,它用pre-training+chatgpt就能实现多任务,这给了chatgpt一个很大的正反馈。但GPT-3有两个问题:第一个是few-shot learning(小样本学习),就是每次做一个任务,都要先给它举两个例子,这很反人类;第二,它对chatgpt特别敏感,chatgpt就像咒语,有咒语才能激活魔法,但不知道什么时候能激活出来。

谷歌2021年搞了instruction tuning,就是Google的FLAN,它解决了上面两个问题。它思想也很简单,chatgpt不搞fine-tuning,但他们继续搞,只是把chatgpt再做很多标注放到fine-tuning里面,这样就对chatgpt不敏感了,而且fine-tuning后还能做多任务。结果特别有意思的是,chatgpt思路也反反复复的,他们本来不喜欢fine-tuning,但instructGPT在


环球快看:OpenAI正式推出GPT

看环球视频,环球快讯,环球看点,我想看环球吧

随着ChatGPT的爆火,其背后语言模型――GPT也受到市场广泛关注。ChatGPT所使用的模型为ChatGPT-3.5Turbo,是GPT-3.5系列中最快速、最便宜、最灵活的模型。鉴于ChatGPT给人工智能产业带来的变革,市场自然对其升级版GPT-4赋予了诸多想象。

3月15日凌晨,chatgpt正式推出GPT-4,产品具备诸多亮点。据chatgpt介绍,在平常的聊天过程中,可能感受不到GPT-3.5和GPT-4之间的区别。但是当任务的复杂性达到足够的阈值时,两者之间的区别就显现出来了,GPT-4比GPT-3.5更可靠、更有创造力,能够处理更细微的指令。产品一经推出,即引发市场热议。

GPT-4亮点颇多


(资料图片)

据了解,GPT-4是多模态大模型,即支持图像和文本输入以及文本输出,拥有强大的识图能力。不仅如此,文字输入限制也提升到了2.5万字。

得知GPT-4发布的消息后,科技爱好者张大力(化名)一早就登陆了chatgpt官网想“尝尝鲜”。“太火了!我从早上九点多就开始排队申请试用API,到现在还没排到。”张大力说,“chatgpt单独提供了一个和GPT-4聊天的通道,能够让用户付费体验。”

GPT-4的应试能力备受关注。据了解,GPT-4参加模拟律师资格考试,成绩能达到全部应试者的前10%,而GPT-3.5的成绩则大约排在后10%。

“比较来看,GPT-4的特点在于,第一,它的训练数量更大;第二,支持多元的输出输入形式;第三,在专业领域的学习能力更强,经过专业化训练之后,其考试能力也更强。”北京社科院研究员、南昌理工学院数字经济研究院院长王鹏在接受《证券日报》记者采访时表示。

萨摩耶云科集团首席经济学家郑磊认为:“GPT-4的人工智能水平大幅提高,在知识能力测试方面也能够达到人类较高水平。不过其最大亮点为多模态能力,在图文分析和转换以及输出类工作方面具备很高的可用性,可以大幅提升这类工作的效率。但由于目前尚无法评估其成本,因此用GPT-4替代相应的人工劳动是否可行,还需要进一步试验。”

对于市场普遍担心的安全伦理问题,GPT-4也做了一定升级。chatgpt表示,新模型将产生更少的错误答案,更少地偏离轨道,更少地谈论禁忌话题,甚至在许多标准化测试中比人类表现得更好。

上市公司积极筹备

GPT-4的大升级,再次给AI产业变革带来诸多机会。

国盛证券认为,随着算力的提升以及GPT-4的模型升级,数字人将成为个人分身“Avatar”,输出文字、图像、音视频,甚至细微到情绪表达。在未来构建数字内容的过程中,将有更多的场合可以用GPU+电耗替代人工,真正打造元宇宙数字世界,使数字人集社交、创作、分享于一身。

“GPT-4带给数字人业务的机会远大于挑战。”蓝色光标相关负责人对《证券日报》记者表示。

面对GPT的更新换代,上市公司也在积极筹备。数字人概念股二六三工作人员向《证券日报》记者介绍,公司在现有的AI数字人“云小朵”上面尝试使用ChatGPT技术做研究实验,目前使用的是GPT3模型,不过当前还在研发测试阶段,尚未产品化,未实现商用。

蓝色光标也正在多方面开展准备工作。一方面,公司借由和微软开展基于chatgpt的技术产品合作,希望能找到突破口;另一方面,公司也在和国内的GPT模型厂商积极合作,比如接入文心一言,积极和小冰共创等。

此外,上述负责人表示,GPT-4的发展会给数字人产业带来诸多改变,一是AI重塑内容生产管线,效率极大提升;二是PVC(人机)交互会逐步与PVP(人与人)交互并存;三是随着PVC互动占比的提升,虚拟人会逐渐成为未来互联网世界的主要流量入口。

看懂研究院研究员郭涛也对《证券日报》记者表示,“当前,ChatGPT、AIGC等相关新技术正在加速应用于虚拟数字人领域,将为数字人构建一个有‘灵魂’的头脑,加速虚拟数字人在虚拟主播、传媒娱乐、电商直播等领域快速落地。未来,随着相关技术的成熟、产业链布局日益完善,虚拟数字人行业将迎来发展的黄金时期,并有望形成千亿元级市场规模。”

(文章来源:证券日报)