庆云古诗词

庆云古诗词

不必叹息文心一言,“GPT+” 不完全畅想

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

不必叹息歌词,不必叹息不必留恋,不必感叹

撰文/ 张椿琳

编辑/ 孟 为设计/ 师玉超

“不是我不明白,这世界变化快。”

车企想蹭的元宇宙概念都还没有完全落地,chatgpt又来了。

整个2023年的春天,chatgpt绝对是科技界最硬核和最具热度的话题性产品。

2月,chatgpt所展现出的学习能力和文字处理能力,让相当多的人陷入深思,自己何时将会被AI所取代;3月,当大家调戏chatgpt的热情才刚刚有所退减,GPT-4的发布,又让人们意识到它进化和成长的速度可能比我们想象得还要更快。

大洋彼岸,微软用chatgpt开始加持自己的搜索引擎Bing,得到了交互体验更好的New Bing。

国内,人们对chatgpt的到来和商业化,同样充满了期待。

3月16日,百度承诺在三月完成内测的新一代知识增强大语言模型――文心一言正式发布,展示了其在文学创作、商业文案创作、梳理逻辑推算、中文理解和多模态生成的五大能力。

尽管录播的功能演示多少让观众有些失望,尽管百度创始人、董事长兼首席执行官李彦宏也不得不承认它有些仓促,并不完美,尽管资本市场用瞬间近10个百分点暴跌让人们意识到它和chatgpt的差距可能还有点远,但也正如李彦宏所说,“之所以今天推出,是因为市场有需求。”

在文心一言发布前,百度就已经手握560家合作伙伴的战略协议,从这个数字中,你就可以感受到,人工智能在移动互联服务上将会轰轰烈烈,席卷而来。

为何市场对chatgpt 如此狂热?

尚记得2016年,AlphaGo完胜围棋世界冠军李世石,石破天惊,人类在棋类游戏的最后一块智力高地被攻下,插旗者从此以后可能不再是纯人类。这一年大家对人工智能的期待开始燃爆。

而在这之后的6年里,尽管大把资本砸进去,行业的爆发点和资本想见到的商业化落地却还远没有到来。虽然AI赛道有一件件专利垒起来的城墙,但没有获得大规模应用的AI如无源之水、无本之木。大部分的AI公司都难以盈利,以AI四小龙为代表的独角兽光环也逐渐褪去,面临着前所未有的信任危机。

直到2022年末,chatgpt的出现,成为人工智能继 AlphaGo 以来最出圈的爆点。

它的出现第一次让大家觉得,人工智能似乎终于能够和人正常交流了,它能「懂」你在说什么,并且按照人类的思维模式和语言规范给你反馈。这种似乎与“人”对话的真实体验感给大众带来巨大乐趣和惊喜,使chatgpt光速出圈。

chatgpt 的交互回答都正确吗?

chatgpt在中文互联网爆火后,很快引发了一场意料之外的狂欢――用户们争先恐后地“调戏”它,并以此作为社交甚至融资场的谈资。

与苹果的智能语音助手Siri遇到复杂问题时动辄回答“对不起,我好像不太明白”完全不一样,chatgpt回答问题的模式展现出了其尽可能?洽的语?逻辑组织能?。甚至对于很多人们一眼看上去像是在搞怪的问题,它也会给出答案,可以说是“一本正经地扯谈,但又能反复自洽”。

它的回答在逻辑表达上有模有样,不像是随意从网上抄来的,它给出的答案甚至包含了引用论文、论文号等细节,但假若你针对细节仔细查验其出处时,又会发现chatgpt口中的这些“参考文献”很多由其自己编撰,而由于大模型的黑盒特性,你又不知道它是如何编出来的。

沿着这个角度想一下,chatgpt的回答很少出现“句不成句”式的表述硬伤,但却不时出现逻辑与事实错误。

越专业的领域或者越深入追问,这种错误就越明显。这也是每个行业领域AI供应商在chatgpt上的机会点――它像人,但终究还未能在所有领域比得过所有人,它还需要继续“养”和继续“成长”。

不过,我们很快在GPT-4上看到了AI “养”和继续“成长”的能力,一是它在应对考试上成绩的快速提升,二是官方公布的数字显示,相比于3.5版本的chatgpt,它在响应不允许内容方面的可能性降低了82%,产生事实响应的可能性增加了40%。

至此,我们发现,chatgpt其实是一个互动好伙伴。它能不厌其烦地回答你的问题,你再骚扰,它也“待你如初恋”,虽然别指望它100% 正确,但其几乎没有知识的边界。

chatgpt 和智能客服

刚讲到互动,我们汽车行业有智能客服 这类交互解决方案已经很多年了。但目前大家共识是,所谓的“智能客服”,接触到的多半是一些APP后台的智能回复、或者模式型回复,依赖的是用户输入的关键词,然后进行算法的分析,最后做出答复。智能客服 回答的逻辑是,提取客户问题的关键字去匹配知识库,提取命中答案并回复。

作为消费者,感受到的依然是“冷冰冰”和“绕圈子”,这种感觉就像事先准备好了一段话,不管客户问什么只要与其沾边,都只回答这段话。

这种“匹配”+“命中”的方式没有错,但不自然,更不拟人,所以用户体验必然极差。

今天chatgpt的出现,用它的回答方式和语言组织逻辑,则可以给我们在智能客服的场景上,增添上拟真人的情绪式回答和互动。

想象一下,把知识库接入chatgpt,让chatgpt作为一个对外的问答机器人。

问:介绍下Model 3(参数丨图片)这款车?

chatgpt:Model 3现在有2个版本,后轮驱动版和Performance高性能全能驱动版。你想看了解哪个版本?

问:我的预算只有30万。

chatgpt:30万可以考虑后轮驱动版本。后驱版是model 3中销量常青树,动力表现不错,零百加速3秒出头……

问:加上保险大概要多少钱?

chatgpt:保险费用取决于您的车型、驾龄、所在地。这个问题建议您向当地保险公司询价。同时,向您提供一些可选的保险品牌…..

是不是更像一个真实的客服在与你互动?

传统的智能客服本身它已经具备了24小时在线和快速回复问题的能力,但无法给出拟人化和千人千面的回复。而chatgpt和车企知识库的结合,是完美的解决方案,既满足了拟人的回复方式,又深度学习了专业而精确的汽车知识。

在GPT-4上,更被重视的系统消息又为chatgpt带来了角色设定和回答风格的全新可能,并且GPT-4具有更强的习惯性养成,这将给智能客服带来更全面的人性化体验。

此外,GPT-4所增加的图片提示输入和分析能力,对于车辆故障、现场问题解决等提供了等多AI处理的可能。

chatgpt+车机,情感智能时代来临?

当前技术下,车机机器人依然还是任务型(Task),意思是,如果你说,“帮我打开空调”,机器人听懂了他会执行。任务型机器人的底层是未完全成熟的任务型对话系统,单项输入并接受和执行任务。

如果一旦能引入闲聊型(Chat)型机器人,车机系统将会打开新世界的大门,向更加富有个性化和情感化的语音交互方向转变。试想一下,当车机机器人和用户长时间互动之后,用户开车时想问问题都会习惯性问问它,“今天天气怎么样”,“前方路况怎么样”,“我的车是不是该去保养了”,这种交互是双向的,一段时间的驾驶之后,车机就像用户肚子里的蛔虫一样了解用户本人,甚至这个“知性聊友”还能听得懂你的冷笑话、话题更,在用户心智里住了下来,用户已经离不开它了,这时候给用户推荐个东西,偶尔带个货,谁还会抗拒呢?

就像新东方主播董宇辉靠着丰富的知识储备,诗词金句脱口而出,引领了“知识型带货”的风潮。同样的东西,很多观众就愿意从东方甄选直播间下单,这就是“知性聊友”的商业价值。

数策近期也正在努力钻研人机互动新场景,我们口头暂且叫它“试驾宝盒”,是一项在消费者试驾场景下智能捕捉其话语和情绪峰值谷值的AI算法研究项目,期望能在试驾环节带给消费者更好的试驾体验,促进购车转化。

从chatgpt到AIGC

可以预见到的,chatgpt的出现,将代替大量重复性的脑力劳动。

内容营销创作将进入人和AI协同创作时代甚至全AI创作时代,这在优化内容生产的效率和创意的同时,能让电商,信息流投放广告真正意义上形成千人千面的效果。

比如同一台车的广告投放给100个人,每个人看到的广告故事都不一样,而这些广告故事则都是由AI深度学习每位消费者的品味和High点之后的创作成果。

在我们车企常用的社群营销手段里,AIGC将来可能能够真正意义上扮演一个虚拟群运营专员的角色,比如与群客户进行更加有趣的互动,在群无人说话的时候暖场,甚至带领群成员做小游戏抽奖等。

根据百度创始人李彦宏提出过 AIGC 发展三阶段论:“助手阶段”(AIGC 辅助人类进行内容生产);“协作阶段”,(AIGC 以虚实并存的虚拟人形态出现,形成人机共生的局面);“原创阶段”(AIGC将独立完成内容创作)。

显然,当下无论是chatgpt,或者是AIGC都还是处于“助手阶段”,正在向“协作阶段”、“原创阶段”迭代进化,未来的若干年,在品牌市场营销领域,大量的文字、图片、声频、视频等内容将会被AI生产所替代。

而在商业服务上,我们看到微软用chatgpt加持了搜索引擎Bing,得到了交互体验更好的New Bing;我们可期待的chatgpt加持客服系统,变成了真正的智能客服。

chatgpt+车机?chatgpt+家居终端?chatgpt+信息流广告?就像当年的“互联网+”,“chatgpt+”之广泛和壮美,你有哪些想象,欢迎在评论区留言和我们分享。

(作者系上海数策软件股份有限公司创始人、董事长)

本文由汽车商业评论原创出品

转载或内容合作请联系说明

违规转载必究


上万颗英伟达芯片 + 微软数亿美元投资,带你揭秘 ChatGPT 背后的超级计算机

英伟达产量,2021 英伟达,英伟达 对手,英伟达涨了多少倍

箫雨 发表于 2023/3/14 8:26:55

北京时间 3 月 14 日消息,人工智能聊天机器人 chatgpt 一经推出便火爆全球,但外界可能不知道,chatgpt 之所以能够如此智能,背后依托的是微软公司为它打造的一台昂贵的超级计算机。

微软超级计算机使用了上万颗英伟达 GPU

2019 年,当微软向 chatgpt 开发商 chatgpt 投资 10 亿美元时,它同意为这家人工智能研究创业公司打造一台庞大的尖端超级计算机。唯一的问题是:微软没有 chatgpt 需要的那样的东西,也无法完全确定它能在 Azure 云服务中构建这么大的东西而不会破坏它。

当时,chatgpt 正试图训练一套规模越来越大的人工智能程序,也就是“模型”,后者正在吸收越来越大的数据量,学习越来越多的参数。这些参数是人工智能系统通过训练和再训练得出的变量。这意味着,chatgpt 需要在很长一段时间内使用强大的云计算服务。

为了克服这一挑战,微软不得不想办法将数万颗英伟达 A100 图形芯片 (训练人工智能模型的主力) 组合在一起,并改变服务器在机架上的位置以防止断电。微软负责云计算和人工智能的执行副总裁斯科特?格思里 (Scott Guthrie) 不愿透露该项目的具体成本,但表示“可能不止”几亿美元。

“我们构建了一个可以在超大规模范围内运行并且可靠的系统架构。这就是 chatgpt 成为可能的原因,”微软 Azure 人工智能基础设施总经理尼迪?查普尔 (Nidhi Chappell) 表示,“它是从中得出的一个模型,未来还会有很多很多其他的模型。”

这项技术帮助 chatgpt 发布了 chatgpt,后者在去年 11 月发布几天后就吸引了 100 多万用户,现在正被纳入其他公司的商业模式,从亿万富翁对冲基金创始人肯?格里芬 (Ken Griffin) 运营的公司,到外卖公司 Instacart。随着 chatgpt 等生成式人工智能工具越来越受到企业和消费者的兴趣,微软、亚马逊公司和谷歌等云服务提供商将面临更大的压力,需要确保他们的数据中心能够提供所需的巨大计算能力。

现在,微软使用它为 chatgpt 构建的同一套资源来训练和运行自己的大型人工智能模型,包括上个月推出的新必应搜索机器人。微软还向其他客户销售该系统。作为微软与 chatgpt 扩大合作协议,追加 100 亿美元投资的一部分,该软件巨头已经在研究下一代人工智能超级计算机。

“我们不想把它打造成定制产品,它一开始是一个定制产品,但我们总是想办法把它打造成通用型产品,这样任何想训练大型语言模型的人都可以利用同样的改进,”格思里在一次采访中表示,“这真的能够帮助我们成为使用更广泛的人工智能云。”

训练一个庞大的人工智能模型需要在一个地方拥有大量相互连接的图形处理单元,就像微软组装的人工智能超级计算机一样。一旦模型投入使用,回答用户提出的所有查询 ―― 称之为推理 ―― 需要稍微不同的设置。微软还部署了用于推理的图形芯片,但这些成千上万个处理器在地理上分散在公司的 60 多个数据中心区域。微软周一在一篇博客文章中表示,现在该公司正在为人工智能工作负载添加最新的英伟达图形芯片 H100,以及最新版本的英伟达 Infiniband 网络技术,以更快地共享数据。

目前,新必应搜索仍处于预览阶段。微软正在从等待名单中逐渐增加更多用户。格思里的团队每天与大约 24 员工举行会议,后者被称之为“后勤维修人员”,这一称呼原指一群在比赛中调整赛车的机械师。该小组的工作是弄明白如何让更强的计算能力快速上线,以及解决突然出现的问题。

“这很像是一种碰头会,就像是,‘嘿,任何人都有好主意,让我们今天把它放在桌面上讨论它,弄清楚好吧,我们可以在这里节省几分钟吗? 我们可以节省几个小时吗? 几天?’”格思里表示。

云服务依赖的是成千上万个不同的部件和物品,包括服务器的各个部件、管道、建筑物的混凝土、不同的金属和矿物,任何一个部件的推迟或供应不足,无论多么微小,都可能导致功亏一篑。最近,维修人员不得不处理电缆托盘的短缺问题。电缆托盘是一种篮子状的精巧装置,用来固定从机器上脱落的电缆。因此,他们设计了一种新的电缆托盘,使得微软可以自己制造,也可以找地方购买。格思里说,他们还在研究如何尽可能多地压缩世界各地现有数据中心的服务器,这样他们就不必等待新的大楼了。

当 chatgpt 或微软训练一个大型 AI 模型时,这些工作是一次性完成的。它被分配到所有的 GPU 上,某些时候各个单元需要相互交流来分享它们所做的工作。对于人工智能超级计算机,微软必须确保处理所有芯片之间通信的网络设备能够处理这种负载,并且必须开发出能够充分利用 GPU 和网络设备的软件。该公司现在推出了一款软件,可以训练具有数十万亿个参数的模型。

由于所有机器都是同时启动的,微软不得不考虑它们的放置位置和电源的位置。格思里说,否则,你最终会得到数据中心版本的结果,就像你在厨房里同时打开微波炉、烤面包机和吸尘器一样。

微软 Azure 全球基础设施总监阿利斯泰尔?斯皮尔斯 (Alistair Speirs) 表示,该公司还必须确保能够为所有这些机器和芯片降温,并在较冷的气候条件下使用蒸发、室外空气,在炎热的气候条件下使用高科技沼泽冷却器。

格思里称,微软将继续开发定制服务器和芯片设计,并想办法优化供应链,以尽可能地提高速度、效率和节省成本。

“现在让世界惊叹的模型是建立在我们几年前开始建造的超级计算机上的。新的模型将建立在我们正在训练的新型超级计算机上,这台计算机更大,也更精密。”