庆云古诗词

庆云古诗词

陆奇博士人工智能创新 陆奇人工智能

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

陆奇博士直播回放,陆奇博士 英文名字,陆奇离职,陆奇最新演讲

陆奇是一位在人工智能领域非常知名的人物,他对大模型、元宇宙、Web 3等领域有深入研究。他曾在百度任职,并成为了百度公司的副总裁和人工智能事业部总裁。他也是OpenAI的董事会成员之一。此外,陆奇还是奇绩创坛的联合创始人之一,奇绩创坛是一个以技术驱动和产业连接为主要方向的创新创业社区。
“这个时代跟淘金时代很像,如果你那个时候去加州淘金,一大堆人会死掉。但是卖勺子、卖铲子的人永远可以赚钱。”

就连陆奇都说他跟不上大模型时代的狂飙速度了。他让下属做“大模型日报”,一方面便于他跟上论文和信息更新,另一方面给奇绩生态创业者共享。他用了三个“实在”表达这一点。“我实在不行了,论文实在是跟不上,代码实在是跟不上。Just too much(太多了)。”陆奇在近期一次分享活动上说。
这样的时刻还从没有过。奇绩创坛创始人兼CEO陆奇是中国AI布道人,也是中国针对大模型最有发言权的人之一。他曾在全球巨头身居要职,先后任职于IBM、雅虎、微软、百度,曾是华人在美国科技公司最有权威的高层人士,位至雅虎和微软执行副总裁,回国加盟百度出任集团总裁兼COO。陆奇以勤勉的工作为科技圈著称――每天清晨4点起床,跑步5英里,6点准时到办公室。
同时,他和OpenAI有着深厚渊源。陆奇所掌管的奇绩前身是YC中国,是美国著名创业孵化器YC(Y Combinator)的中国分支。他也是YC全球研究院院长。而OpenAI首席执行官Sam Altman正是YC二代接班者、现任总裁。两人虽相差24岁,却是忘年交,相识已逾18年。当初正是Sam Altman屡次力邀陆奇加盟YC。所以,陆奇对YC、对Sam Altman和OpenAI都有长期的近距离观察。
2023年4月22日,陆奇在上海举行小规模演讲,腾讯新闻有幸参与了旁听。陆奇希望帮助中国创业者认清这次历史性的拐点时刻,定位今天的时代坐标、找准自己的位置。“这个时代跟淘金时代很像,”他说道,“如果你那个时候去加州淘金,一大堆人会死掉。但是卖勺子、卖铲子的人永远可以赚钱。”
陆奇很反感蹭热点,他一再警示创业者蹭热点只会浪费机会。到现在为止,你几乎很难在公开渠道听到陆奇的观点。这也让本次演讲具有稀缺性。
事实上,在大模型快速达成社会共识之际,一部分人期待陆奇博士披甲上阵,做“中国的Sam Altman”――扮演可能比一名投资者、布道者更关键的角色。但据奇绩内部人说:“Qi目前100%时间花在奇绩。”
腾讯新闻作者将这场分享进行了完整的整理――演讲涵盖他对大模型时代的宏观思考,包括拐点的内在动因、技术演进、创业公司结构性机会点以及给创业者的建议。大家可以各取所需。
好了,让我们来看看陆奇怎么说。为了方便阅读,作者做了一些字句修改和文本优化。
01 社会性拐点的核心 是一项大型成本从边际变成固定
我认识Sam Altman是2005年,他那时19岁不到,我已经40多岁了。
我们俩是忘年交。他是一个很善良也很奇怪的小孩,今天很高兴他能这样改变世界。前不久,我春节在美国3个月,也到OpenAI和Sam聊了一些。
首先,怎么理解这个新范式?这张图能把ChatGPT和OpenAI所带来的一切讲清楚。之后,基于第一性原理,你自然会推演出所在赛道的机会和挑战。
这张图是“三位一体结构演化模式”,本质是讲任何复杂体系,包括一个人、一家公司、一个社会,甚至数字化本身的数字化体系,都是复杂体系。“三位一体”包括:
  1. “信息”系统(subsystem of information),从环境当中获得信息;
  2. “模型”系统(subsystem of model),对信息做一种表达,进行推理和规划;
  3. “行动”系统(subsystem of action),我们最终和环境做交互,达到人类想达到的目的。

任何体系,都是这三个体系的组合,数字化系统尤其如此。数字化和人分不开。人也一样,人要获得信息、表达信息、行动解决问题或满足需求。
基于此,我们可以得出一个简单结论。今天大部分数字化产品和公司,包括Google、微软、阿里、字节,本质是信息搬运公司。一定要记住,我们所做的一切,一切的一切,包括在座的大部分企业都在搬运信息。Nothing more than that,You just mo【【微信】】(仅此而已,你只是移动字节)。但它已经足够好,改变了世界。
早在1995-1996年,通过PC互联网迎来一个拐点。那时我刚从CMU(卡内基梅隆大学)毕业。大量公司层出不穷,其中诞生了一家伟大公司叫Google。为什么会有这个拐点?为什么会有爆炸式增长?把这个观点讲清楚,就能把今天的拐点讲清楚。
原因是,获取信息的边际成本开始变成固定成本。
一定要记住,任何改变社会、改变产业的,永远是结构性改变。这个结构性改变往往是一类大型成本,从边际成本变成固定成本。
举个例子,我在CMU念书开车离开匹茨堡出去,一张地图3美元,获取信息很贵。今天我要地图,还是有价钱,但都变成固定价格。Google平均一年付10亿美元做一张地图,但每个用户要获得地图的信息,基本上代价是0。也就是说,获取信息成本变0的时候,它一定改变了所有产业。这就是过去20年发生的,今天基本是free information e【【微信】】(免费的信息无处不在)。
Google为什么伟大?它把边际成本变成固定成本。Google固定成本很高,但它有个简单商业模式叫广告,它是世界上高盈利、改变世界的公司,这是拐点关键。
今天2022-2023年的拐点是什么?它不可阻挡、势不可挡,原因是什么?一模一样。模型的成本从边际走向固定,因为有件事叫大模型。
模型的成本开始从边际走向固定,大模型是技术核心、产业化基础。OpenAI搭好了,发展速度爬升会很快。为什么模型这么重要、这个拐点这么重要,因为模型和人有内在关系。我们每个人都是模型的组合。人有三种模型:
  1. 认知模型,我们能看、能听、能思考、能规划;
  2. 任务模型,我们能爬楼梯、搬椅子剥鸡蛋;
  3. 领域模型,我们有些人是医生,有些人是律师,有些人是码农。
That’s all。我们对社会所有贡献都是这三种模型的组合。每个人不是靠手和腿的力量赚钱,而是靠脑袋活。
简单想一想,如果你没有多大见解,你的模型能力大模型都有,或者大模型会逐步学会你所有的模型,那会怎样?――未来,唯一有价值的是你有多大见解。
人类社会是技术驱动。从农业时代,人用工具做简单劳动,最大问题是人和土地绑定,人缺少流通性,没有自由。工业发展对人最大变化是人可以动了,可以到城市和工厂。早期工业体系以体力劳动为主、脑力劳动为辅,但随着机械化、电气化、电子化,人的体力劳动下降。信息化时代以后,人以脑力劳动为主,经济从商品经济转向服务经济――码农、设计师、分析师成为我们时代的典型职业。

这一次大模型拐点会让所有服务经济中的人、蓝领基本都受影响,因为他们是模型,除非有独到见解,否则你今天所从事的服务大模型都有。下一时代典型的职业,我们认为是创业者和科学家。
所以,这次变革影响每个人。它影响整个社会。
02 我所看到的三个拐点
下个拐点是什么?
下个拐点将是组合:“行动”无处不在(自动驾驶、机器人、空间计算)。也就是人需要在物理空间里行动,它的代价也从边际走向固定。20年后,这个房子里所有一切都有机械臂,都有自动化的东西。我需要的任何东西,按个按钮,软件可以动,今天还需要找人。
那么,哪些公司能走到下个拐点、站住下个拐点?我认为特斯拉有很高概率,它的自动驾驶、机器人现在很厉害。微软今天跟着OpenAI爬坡,但怎么站住下个拐点?
接下来讲一下我们看到的三个拐点:
① 今天信息已经无处不在了,接下来15-20年,模型就是知识,将无处不在。以后手机上打开,任何联网,模型就过来了。它教你怎么去解答法律问题,怎么去做医学检验。不管什么样的模型都可以无处不在。② 在未来,自动化、自主化的动作可以无处不在。③ 人和数字化的技术共同进化。Sam最近经常讲,它必须要共同进化,才能达到通用智能(AGI)。通用智能四大要素是:涌现(emergence)+代理(agency)+功能可见性(affordence)+具象(embodiment)。
总结来说,我们从根本性的三位一体结构分析未来,从过去的历史拐点能清晰看到今天所面临的拐点,本质是模型成本从边际走向固定,将有一家甚至多家伟大公司诞生。毫无疑问,OpenAI处于领先。
虽然讲得有点早,但我个人认为,OpenAI未来肯定比Google大。只不过是大1倍、5倍还是10倍。
03 OpenAI核心就坚信两件事 发展速度连Sam本人都惊讶
下面我从技术角度讲OpenAI大事迹,它怎么把大模型时代带来的?
为什么讲OpenAI,不讲Google、微软。讲真心话,因为我知道,微软好几千人也做这个,但不如OpenAI。一开始比尔・盖茨根本不相信OpenAI,大概6个月前他还不相信。4个月前看到GPT-4的demo(产品原型),目瞪口呆。他写了文章说:It’s a shock,this thing is amazing(这太令人震惊了,这东西太神奇了)。谷歌内部也目瞪口呆。
OpenAI一路走下来的关键技术:
  1. GPT-1是第一次使用预训练方法来实现高效语言理解的训练;
  2. GPT-2主要采用了迁移学习技术,能在多种任务中高效应用预训练信息,并进一步提高语言理解能力;
  3. DALL・E是走到另外一个模态;
  4. GPT-3主要注重泛化能力,few-shot(小样本)的泛化;
  5. GPT-3.5 instruction following(指令遵循)和tuning(微调)是最大突破;
  6. GPT-4 已经开始实现工程化。
  7. 2023年3月的Plugin是生态化。
OpenAI的融资结构为什么这么设计?和Sam早期目标和对未来的判断分不开。他知道要融很多钱,但股权设计有一个很大挑战――容易把回报和控制混在一起――所以他要设计一个结构,让它不受任何股东的制约。于是,OpenAI的投资者没有控制权,他们的协议是一种债的结构。如果赚完2万亿,接下来是non-profit(不再盈利了),一切回归社会。这个时代需要新的结构。

它势不可挡。Sam Altman自己都surprise,连他都没想到会那么快。
如果大家对技术感兴趣,Ilya Sutskever(OpenAI联合创始人兼首席科学家)很重要,他坚信两件事。
第一是模型架构。它要足够深,只要到了一定深度,bigness is betterness(大就是好)。只要有算力,只要有数据,越大越好。他们一开始是LSTN(long short term memory),后来看到Transformer就用Transformer。

第二个OpenAI相信的是,任何范式、改变一切的范式永远有个引擎,这个引擎能不断前进、不断产生价值。
这个引擎基本是一个模型体系(model system),它的核心是模型架构Transformer,就是se【【微信】】(序列模型):se【【微信】】、sequence out、encode、decode后者decode only。但最终的核心是GPT,也就是预训练之后的Transformer,它可以把信息高度压缩。Ilya有个信念:如果你能高效压缩信息,你一定已经得到知识,不然你没法压缩信息。所以,你把信息高效压缩的话,you got to ha【【微信】】(你得有一些知识)。
Ilya坚信GPT3、3. 5,当然GPT-4更是,它已经有一个世界模型在里面。虽然你做的事是predict next word(预测下一个关键词),这只不过是优化手段,它已经表达了世界的信息,而且它能持续地提高模型能力,尤其是目前研究比较多的在子概念空间当中做泛化。知识图谱真的不行。如果哪个同学做知识图谱,我认真跟你讲,你不要用知识图谱。我自己也做知识图谱20多年,just don’t do that。Just pretty bad。It does not work at all。You should use Transformer。(不要那样做。很糟糕。它根本不起作用。你应该使用Transformer。)
更重要的是用增强学习,加上人的反馈,与人的价值对齐。因为GPT已经做了4年多,知识已经封装在里面了,过去真的是用不起来,也很难用。
最大的是对齐(alignment engineering),尤其是instruction following和自然语言对齐。当然也可以跟代码、表格、图表对齐。
做大模型是很难的,很大难度是infra(基础设施)。我在微软的时候,我们每个服务器都不用网卡,都放了FPGA。网络的IO的带宽速度都是无限带宽技术(Infiniband),服务器和服务器之间是直接访问内存。为什么?因为Transformer是密度模型,它不光是算力问题,对带宽要求极高,你就想GPT-4需要24000张到25000张卡训练,试想世界上多少人能做这种系统。所有数据、data center网络架构都不一样。它不是一个三层的架构,必须是东西向的网络架构。所以这里要做大量的工作。
Token很重要。全世界可能有40-50个确定的token,就是语言的token和模态,现在有更多的token化。当然现在更多的模型的参数小型化、本地化,任务领域的专业知识可以融入这些大模型当中。它的可操纵性主要是靠提示和调试,尤其是根据指令来调,或者对齐来调试,或者in-context learning(上下文学习),这个已经贯彻比较清晰了。它的可操作性是越来越强。可拓展性基本上也足够。
加在一起,这个引擎并不完美。足够好、足够强的引擎,我没从没有过。
以上是引擎,拐点是怎么到的?ChatGPT能在历史上第一次两个月1亿活跃用户,挡都挡不住,为什么?
① 它封装了世界上所有知识。
② 它有足够强的学习和推理能力,GPT-3能力在高中生和大学生之间,GPT-4不光是进斯坦福,而且是斯坦福排名很靠前的人。
③ 它的领域足够宽,知识足够深,又足够好用。自然语言最大的突破是好用。扩展性也足够好。当然还是很贵,像2万多张卡,训练几个月这么大的工程。不过也没贵到那么离谱――Google可以做,微软可以做,中国几个大公司能做,创业公司融钱也能做。
加在一起,范式的临界点到了。拐点已经到来。
稍微嗦几句。我做自然语言20多年,原来的自然语言处理有14种任务,我能够把动词找出来、名词找出来、句子分析清楚。即使分析清楚,你知道这是形容词,这是动词,这是名词――那这个名词是包香烟?还是你的舅舅?还是一个坟墓?还是个电影?No idea(不知道)。你需要的是知识。自然语言处理没有知识永远没用。
The only way to make natural language work is you ha【【微信】】(让自然语言处理有效的唯一路径是你有知识)。正好Transformer把这么多知识压缩在一起了,这是它的最大突破。
04 未来是一个模型无处不在的时代
OpenAI未来2-3年要做的――模型更稀疏一点,现在它对带宽要求实在太高,要把attention window拉长一点,或者是recursion causality推理的功能,包括brainstorming等一些工作要做。当然有一些grounding的东西,包括亚符号、子概念的都可以做。更多的模态,更多的token空间,更多的模型稳定性,更多的潜在空间(例如Latent Space对齐),更多的计算,更多的基础架构工具。2-3年基本排满。也就是说,我们大概知道需要什么去把这个引擎继续做大。
不过这个飞轮启动,主要是资本大量进来。美国2023年1月到3月,挡也挡不住,钱全进去了,每个月都在比上个月增长。中国基本也一样,商业模式、盈利模式有初步规模,基础设施、平台应用、生态在加速开发,初创公司、大型企业都在进入。
当然社会的安全、监管,一大堆问题――现在这些是OpenAI最头痛的――Sam在美国花大量精力让社会认可这个技术。现在OpenAI核心做的是,把推进速度变慢,每推进新版本,都有足够时间让用户给他们足够反馈,找到潜在风险点,有足够时间弥补。但加在一起,增长飞轮的雏形基本上起来了。
有了飞轮,我认为发展路径核心是模型的可延伸性和未来模型的生态。是一个模型无处不在的时代。
未来的模型世界会怎么发展?首先是将有更多大模型会出来。更多更完整的模态和更完整的世界知识在这里。你有大量的知识、更多的模态,学习能力、泛化能力和泛化机制一定会加强。
此外,会有更多的对齐工作要做。OpenAI目前会关注什么呢?今天对齐基本上是做到,有一部分人能接受但你也得罪很多人,很多人每天骂GPT。他们想要做到是足够宽的一个对齐,希望有个像美国宪章这样一个结果,虽然ChatGPT不是大家都能够认可,但它足够平稳、综合,大部分人能接受,这是对齐工程。自然语言也好,代码也好,数学公式也好,表单也好,有大量对齐工作要做。
还有更多的模态对齐。这里先讲human scale的模态,它主要是对人的描述,以人的语言为主,它的模态目前是语言和图形,以后有更多的模态会接入。这是大模型层面。
在大模型之上建立的模型更多了。我判断主要是有两类模型和他们的组合。第一是事情的模型,人类每一类需求都有领域/工作模型,其中有结构模型、流程模型、需求模型和任务模型,尤其是记忆和先验。
第二,人的模型,包括认知/任务模型,它是个体的,其中有专业模型,有认知模型、运动模型和人的记忆先验。人基本是这几类模型的组合,律师也好,医生也好,大量领域会有大量模型往前走。
人的模型和学的模型有本质区别,这是我过去1-2个月个人收获较多的。
首先,人一直在建立模型。人的模型好处是泛化的时候更深、更专业,基本是用符号(例如数学公式)或结构(例如画流程图)。它具体用,说实话都不好用。人的模型要么像物理公式解决很宏观的问题,要么解决很微观的问题。我们日常生活的问题,物理一点用都没有――没法告诉我这个树的叶子的形状,狗的猫的颜色为什么是这样子?没有任何模型可以解这个。很大问题是它的模型是静态的,不会场景变化。
今天有很多模型,比方说数字孪生,很难用。因为物理世界一直在变,这个模型僵硬、不变,就用不起来。尤其是用知识图谱建的模型,我做了几十年,超级难算,函数结构差得一塌糊涂。所以人的模型有好处,专业性强,但有很大缺点。
学出来的模型,首先,它本质是场景化的,因为它的token是场景化的。其次,它适应性很强,环境变了,token也变了,模型自然会随着环境变;第三,它的泛化拓展性有大量理论工作要做,但是目前子概念空间的泛化,看来是很有潜在发展空间的这样一种模型的特性。它好用,因为它可以对齐人的使用倾向或人的自然语言、表格等等。它的计算性内在是过程性的。这里有大的问题,就是人表达知识倾向运用结构,但真正能解决问题的是过程,人不适合用过程来表达。
ChatGPT代表的模型跟人的模型相辅相成,长期可以融在一起。我们看到的未来是更多模型的生态,新的领域、新的专业、新的结构、新的场景、新的适应能力,形成闭环,不断加强认知和推理能力。当然,最终还是要所谓叫grounding,跟感知要ground,和接入行动的能力,形成真正的智能。
某种意义上20-30年后,这个模型世界跟生物世界有很多类似的地方。大模型我觉得像基因,有不同的种类,然后进化。我们目前能看到未来核心技术模型世界,它是用这个方法来向前驱动。
我们基本对这个时代的范式有了结构性的理解。那么接下来,我们如何拥抱这个时代?
05 每周都有“HOLLY SHIT” moment 对每个人、每个行业都有结构性影响
我个人过去10个月,每天看东西是挺多的,但最近实在受不了。就真的是跟不上。发展速度非常非常快。最近我们开始发行“大模型日报”,是我实在不行了,论文实在是跟不上,代码实在是跟不上――just too much(太多了)――基本上,每周都会有一两个“HOLLY SHIT” moment。
Holly shit!You can do this now。
世界在哗哗哗地变。我曾经说1995-1996年有这种感觉,但这个比1995-1996年还要强。为什么?模型的成本从边际转向固定,知识创造就是模型和知识的获取,它结构性做演变了。
生产资本从两个层次全面提高。第一,所有动脑筋的工作,可以降低成本、提升产能。我们目前有一个基本假设,码农成本会降低,但对码农的需求会大量增加,码农不用担心。因为对软件的需求会大量增加,就是这个东西便宜了,都买嘛。软件永远可以解决更多问题,但有些行业未必。这是生产资本的广泛提高。
第二,生产资本深层提升。有一些行业的生产资本本质是模型驱动,比如医疗就是一个模型行业,一个好医生是一个好模型,一个好护士是一种好模型。医疗这种产业,本质是强模型驱动。现在模型提高了,科学也随之提高。在游戏核心产业,我们的产能将本质性、深度提高。产业的发展速度会加快,因为科学的发展速度加快了,开发的速度加快了,每个行业的心跳都会加快。因此,我们认为下个拐点会加速。用大模型做机器人、自动化、自动驾驶,挡也挡不住。
它对每个人都将产生深远和系统性影响。我们的假设是每个人很快将有副驾驶员,不光是1个,可能5个、6个。有些副驾驶员足够强,变成正驾驶员,他自动可以去帮你做事。更长期,我们每个人都有一个驾驶员团队服务。未来的人类组织是真人,加上他的副驾驶员和真驾驶员一起协同。
毫无疑问,每个行业也会有结构性影响,会系统性重组。这里有一个简单公式。今天动脑筋的人一天平均工资多少小时?减掉ChatGPT现在大概平均是15美元/小时,再过3年可能不到1美元,再过5年可能几十美分。然后就乘一下有多少数量。降本或者增效,让码农能变成super码农,医生变成super医生。
大家可以按这个公式算一算。如果你是华尔街的对冲基金,你可以做空一大堆行业。
举个简单例子,律师在美国平均1500美元/小时,我在网上已经看到每天有这种信息――如果你想离婚,不要找离婚律师,ChatGPT离婚很便宜啊!(全场笑)
开发人员、设计师、码农、研究人员都一样,有些是更多需求,有些是成本下降。尤其是核心产业,科学、教育、医疗,这是OpenAI长期最关注的3个行业,也是整个社会最根本的。
尤其是医疗。在中国,需求远远大于供给。而且,中国是大政府驱动的市场经济,政府可以扮演更大角色,因为固定成本政府可以承担。
最为重要的是教育。如果你是大学,你第一担心的是,考试怎么考?没法考了。他一问ChatGPT,什么都知道。更重要的是,以后怎么定义是好的大学生呢?假定说有个大学生什么都不懂,物理也不懂、化学也不懂,但他懂怎么问ChatGPT,他算不算一个好的大学生?机会与挑战并存。
总结一下,整个这个时代在高速地进行,速度越来越快。它是结构上决定的。势不可挡。
06 大模型的淘金时代 对机会点进行结构性拆解
现在,我给大家一个结构化思维框架。某种意义上你可以对号入座,知道我在这里,我怎么思考今天的机会点。

这张图是整个人类技术驱动的创业创新,所有事情的机会都在这张图上。
首先,底层是数字化的技术,因为数字化是人的延伸。数字化的基础里有平台,有发展基础,包括开源的代码、开源的设计、开源的数据;平台有前端、后端等。这里有大量机会。
第二,波是用数字化的能力去解决人的需求。我们把数字化应用完整放在这张表上。
1)C端,是把所有的人分成人群,每种人群24小时,他花时间干什么?有通讯、社交、内容、游戏消费、旅游、健身……C端有一类特殊的人,这类人是改变世界的,是码农、设计师、研究员。他们创造未来。微软这么大的公司,是基于一个简单理念:微软我们就是要写更多软件、帮别人写更多软件,因为写软件是未来。
2)B端,企业需求也一样,降本增效。它要生产,有供应链、销售、客服……有了这些需求之后,数字化看得见的体验结构有6种:给你信息的,二维就够;给你三维交互体验,在游戏、元宇宙;人和人之间抽象的关系,包括信任关系、Web 3;人在物理世界环中自动驾驶、机器人等;人的内在的用碳机植入到里面,今天

如何通俗理解ai模型 ai数据模型解析

二重积分对称性如何通俗理解,如何通俗理解未确认融资费用,如何通俗理解周延性,如何通俗理解电压

从百度“文心一言”,到阿里“通义千问”、商汤“日日新”,再到知乎“知海图AI”、昆仑万维“天工”,正当国内各大厂商前赴后继地发布大语言模型之时,OpenAI CEO 却宣布大模型时代已接近尾声。

国内AI大模型密集发布

今年以来,随着人工智能技术不断发展,尤其是ChatGPT的爆火,生成式人工智能(AIGC)成为绝对的市场热点。近期,国内AI大模型密集发布如下饺子,呈现出你方唱罢我登场的热闹场面。

3月16日,百度正式发布被称为中国版Chat GPT的百度“文心一言”。 百度创始人、董事长兼首席执行官李彦宏在发布会现场亲自做了相关演示。发布会后一小时内,排队申请文心一言企业版API调用服务测试的企业用户已达3万多家,申请产品测试网页多次被挤爆。

4月7日,阿里在云峰会上正式推出了阿里云大语言模型“通义千问”,现阶段该模型主要定向邀请企业用户进行体验测试。另外,阿里巴巴决定未来将所有产品接入通义千问,进行全面改造。

4 月 8 日,在由中国人工智能学会主办的人工智能大模型技术高峰论坛上,华为云人工智能领域首席科学家田奇介绍了华为“盘古大模型的进展及其应用”。“AI for Industries是人工智能新的爆点!” 田奇表示,华为盘古大模型正在推动人工智能开发从“作坊式”到“工业化”升级。

4月10日,商汤科技董事长兼首席执行官徐立宣布推出大模型体系商汤“日日新”大模型体系。

同日,搜狗创始人王小川也正式宣布入局中国大模型创业,和前搜狗COO茹立云联合创立人工智能公司。

4月11日,毫末智行正式官宣首个应用GPT模型和技术逻辑的自动驾驶算法模型,中文名“雪湖?海若”。

同日,科大讯飞在互动平台表示,关于讯飞预训练大模型的详细信息,将于5月6日产品发布会上进行发布。

4月13日,在“2023知乎发现大会”上,知乎创始人、董事长兼CEO周源上宣布,知乎联合面壁智能发布中文大模型“知海图AI”,邀请AI加入知乎“讨论场”。

4月16日,国内网络安全龙头企业360集团基于360GPT大模型开发的人工智能产品矩阵“360智脑”率先落地搜索场景,面向企业用户开放内测。未来,360智脑将与浏览器、数字助理、苏打办公、智能营销等场景应用深度结合。

4月17日,昆仑万维正式发布千亿级大语言模型“天工”,并宣布即日起启动邀请测试。昆仑万维官方称,该模型已经非常接近OpenAI ChatGPT的智能水平。

4月18日,金山办公正式发布了具备大语言模型能力的生成式人工智能应用WPS AI,并首先应用于金山办公轻文档(airPage),后续将陆续嵌入金山办公全线产品中。

同日,钉钉总裁叶军宣布,钉钉正式接入阿里巴巴“通义千问”大模型,钉钉将全面启动智能化战略,升级为智能协同办公平台、智能应用开发平台。

4月18日下午,麒麟合盛网络技术股份有限公司(APUS)在北京正式发布参数已达千亿规模的自研多模态人工智能大模型“AiLMe”,具备对文本、图像、视频、音频的理解和生成能力。并同时推出针对文本、图像、视频、音频等具体应用场景的系列AI产品。

4月20日,海康威视在回复投资者提问时表示,公司从几年前就开始研发视觉大模型,现在已经到了多模态大模型的研发阶段,包括视觉、语音、文本等多模态信号的融合训练及处理。目前大模型已经在AI开放平台上上线,支持了许多垂直行业的用户。

大模型时代已经结束?

从全球来看,虽然在这个月几乎每天都至少有一家科技大公司入局训练大模型,但OpenAI CEO近日却突然宣布,大模型时代已经要结束了。

OpenAI联合创始人兼CEO Sam Altman上周末在麻省理工学院演讲时警告称:我们已经处在大模型时代的尾声,并表示如今的 AIGC 发展中,将数据模型进一步做大,塞进更多数据的方式,已经是目前人工智能发展中最后一项重大进展。他警告称,诞生 ChatGPT 的研究策略已经结束。并且还声称目前还不清楚未来的发展方向何去何从。

Sam Altman 还表示目前没有,短期内也不会训练GPT-5。而在描述 GPT-4 的论文中,OpenAI 也预估扩展模型规模的收益将出现递减。OpenAI 建造数据中心的数量以及建造速度也存在物理限制。Sam Altman在采访中也表示,他认为OpenAI已经接近了LLM规模的极限,未来成长将会放缓。

众所周知,自去年 11 月 ChatGPT 推出以来,微软利用底层技术在必应搜索中添加了基于它的聊天机器人,谷歌也推出 Bard 竞品。很多人急着尝试使用新型聊天机器人帮助完成工作或个人任务。

与此同时,包括 Anthropic、AI21、Cohere 和 Character.AI 在内众多资金雄厚的初创公司都投入大量资源构建规模更大的算法,以努力追赶 OpenAI。

然而,OpenAI联合创始人兼CEO Sam Altman在麻省理工学院演讲中的言论,或许是在给中国甚至全球正在积极研发大模型的企业提醒:在开发和部署新AI算法的竞赛中已经出现了转折。

举报/反馈