庆云古诗词

庆云古诗词

乔姆斯基:ChatGPT的虚假承诺

淘文章 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

乔姆斯基成就,乔姆斯基CAD,乔姆斯基层级,乔姆斯基创立的语言学,使语言学成为现代意义的科学

原标题:乔姆斯基:ChatGPT的虚假承诺

【编者按】当地时间3月8日,著名语言学家、哲学家诺姆・乔姆斯基(Noam Chomsky)在《 纽约时报》发表了题为《ChatGPT的虚假承诺》的文章。乔姆斯基强调,人工智能和人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此降低。诺姆・乔姆斯基是亚利桑那大学的语言学教授,也是麻省理工学院的语言学荣誉教授。伊恩・罗伯茨(Ian Roberts)是剑桥大学的语言学教授。杰弗里・瓦图穆尔(Jeffrey Watmull)是科技公司的人工智能主管。以下是全文译文:

豪尔赫・路易斯・博尔赫斯(Jorge Luis Borges)曾写道,生活在一个既充满危险又充满希望的时代既是悲剧,又是喜剧,一个关于理解我们自己和世界的“启示即将来临”。今天,我们确实有理由为人工智能方面所谓的革命性进步感到既担心又乐观。乐观,因为智慧是我们解决问题的手段。担忧是因为我们担心最流行、最时兴的人工智能分支:机器学习将把一种有着根本缺陷的语言和知识概念纳入我们的技术,从而降低我们的科学水平,贬低我们的道德标准。

OpenAI的ChatGPT、谷歌的Bard和微软的【【微信】】都是机器学习的奇迹。粗略地说,它们获取大量数据,寻找其中的模式,并越发熟练地生成统计学上可能的输出:例如看似像人类一般的语言和思想。这些程序被誉为通用人工智能地平线上的曙光:那是一个预言已久的时刻,届时机械大脑(mechanical minds)不仅会在处理速度和内存容量方面超越人类大脑,而且还会在智力洞察力、艺术创造力和其他所有人类独有的能力上实现全方位超越。

那一天可能会到来,但黎明破晓的曙光尚未出现,这与那些有着夸张标题的新闻和不明智的投资所预测的情况相反。如果像ChatGPT这样的机器学习程序继续主导人工智能领域,那么博格斯式的理解启示就还未发生、不会发生,并且我们认为,不可能发生。无论这些程序在某些狭窄的领域多么有用(例如,它们可以在计算机编程方面有所帮助,或者为轻体诗提供押韵建议),我们从语言学和知识哲学中了解到,它们与人类推理和使用语言的方式有着巨大区别。这些差异极大地限制了这些程序的功能,使它们带有无法消除的缺陷。

正如博尔赫斯可能指出的那样,如此多的钱和注意力竟然被集中在这么小的东西上,这既是喜剧又是悲剧;与人类的大脑相比,这个东西是如此微不足道,用威廉・冯・洪堡(William 【【微信】】)的话说,人类的大脑通过语言,可以“无限地利用有限的手段(infinite use of finite means)”创造出具有普遍影响力的思想和理论。

人脑不像ChatGPT及其同类产品那样,是一个笨重的模式匹配统计引擎,狼吞虎咽地处理数百兆兆字节的数据,并推断出最为可能的对话回应,或为科学问题提供最可能的答案。相反,人类的大脑是一个极为高效甚至优雅的系统,只需要少量的信息即可运作;它寻求的不是推断数据点之间的粗暴关联(brute correlations),而是创造解释。

例如,一个学习一门语言的小孩正无意识地、自动且迅速地从极少的数据中发展出语法,一个由逻辑原则和参数组成的复杂系统。这种语法可以被理解为先天的、通过基因安装的“操作系统”的表达,它赋予了人类产生复杂句子和长串思路的能力。当语言学家试图发展出一种理论来解释为什么特定的语言会如此运作时(“为什么这些句子被认为是合乎语法的,而那些句子却不是?”),他们是在有意识地、费力地构建一种明确的语法版本,而孩子们却是本能地、凭借极少的信息构建出了语法。孩子的操作系统与机器学习程序的操作系统完全不同。

事实上,这类程序还停留在认知进化的前人类或非人类阶段。它们最大的缺陷是缺乏任何智慧最为关键的能力:不仅能说出现在是什么情况,过去是什么情况,将来会是什么情况――这是描述和预测;而且还能说出情况不是什么,情况可能会是什么,情况不可能会是什么。这些都是解释的要素,是真正智慧的标志。

举个例子:假设你手里拿着一个苹果,现在你放开苹果。你观察结果说:“苹果掉下来了。”这是一种描述。预测则可能是这样的陈述:“如果我张开手,苹果就会坠落。” 两者都是有价值的,而且可能都是正确的。但解释则不仅于此:它不仅包括描述和预测,还包括反事实的推理,如“任何这样的物体都会坠落”,再加上附加条款“因为引力”或“因为时空的曲率”等等。“如果不是因为引力,苹果就不会坠落”,这是一个因果解释。这就是思考。

机器学习的核心是描述和预测;它没有提出任何因果机制或物理定律。当然,任何人类式的解释都不一定正确;我们会犯错。但这正是思考的一部分:要追求正确,就必须有可能出错。智能不仅包括创造性的猜想,也包括创造性的批评。人类式的思考基于可能的解释和纠错,这个过程逐渐限制了理性考虑的可能性。(就像夏洛克・福尔摩斯对华生医生说的:“当你排除了所有不可能,剩下的无论多么不可能,都一定是真相。”)

但是ChatGPT和类似的程序在设计上是无限的,它们可以“学习”(也就是说,记忆);它们没有能力区分可能和不可能。例如,与人类不同的是,人类被赋予了一种通用语法,将我们可以学习的语言限制在那些具有某种近乎数学般优雅的语言上,而这些程序却以同样方式去学习人类可能习得的语言和不可能习得的语言。人类可以理性推测的解释是有限的,而机器学习系统却能够同时学习“地球是圆的”和“地球是平的”。它们只是根据随时间变化的概率进行交换。

因此,机器学习系统的预测总是肤浅和可疑的。因为这些程序无法解释英语的语法规则,举例而言,它们很可能错误地预测这句句子的含义:“约翰太固执了,没法和他说话。(John is too stubborn to talk to.)”,它可能会认为这是指约翰太固执了,他不会和某人或其他人说话(而不是约翰太固执了,没办法和他说理)。为什么机器学习系统会做出如此奇怪的预测?因为它可能会将这句句子与它从其他句子:例如“约翰吃了个苹果”(“John ate an apple”),或“约翰吃了”(“John ate”)中推断出来的模式进行类比,这些句子确实是指约翰吃了东西。该程序很可能预测,因为“约翰太固执了,不愿意和比尔说话”(“John is too stubborn to talk to Bill”)与 “约翰吃了一个苹果”(“John ate an apple”)相似,所以“约翰太固执了,没法和他说话” (“John is too stubborn to talk to”)应该与“约翰吃了”(“John ate”)相似。但语言的正确解释是非常复杂的,无法仅仅通过沉浸在大数据中来学习。

反常的是,一些机器学习爱好者似乎对他们的作品可以在不需要解释(比如,涉及牛顿运动定律和万有引力定律)的情况下,产生正确的“科学”预测(例如,关于物理物体的运动)感到颇为自豪。但这种预测,即使成功了,也是伪科学。正如哲学家卡尔・波普尔(Karl Popper)所指出的那样,虽然科学家们肯定会寻求具有高度经验佐证的理论,但“我们寻求的不是可能性极高的理论,而是解释;也就是说,强有力而极不可能的理论”。

根据亚里士多德的观点,苹果之所以落地是因为大地是它们的天然位置(natural place),这一理论是可能的,但它只会引发更多的问题(为什么大地是它们的天然位置?)。苹果掉到地球上是因为质量使时空弯曲(爱因斯坦的观点)这一理论看似极不可能,但它却告诉了你苹果为什么会掉下来。真正的智力恰恰表现在思考和表达看似不可能但有深刻洞见的事情的能力。

真正的智力还体现在能够进行道德思考的能力。这意味着用一套道德原则来约束我们头脑中原本无限的创造力,决定什么是该做的,什么是不该做的(当然还要让这些原则本身受到创造性的批评)。为了能够有用,ChatGPT必须能生成出新颖的输出;而为了被大多数用户所接受,它必须避免生产在道德上令人反感的内容。但ChatGPT和其他所谓的“机器学习奇迹”的程序员一直在努力,并将继续努力,以实现这种平衡。

2016年,微软的Tay聊天机器人(ChatGPT的前身)在互联网上散播厌女和种族主义的内容,因为它被网络喷子污染了,网络喷子用具有攻击性内容填满了Tay的训练数据。未来如何解决这个问题?由于缺乏根据道德原则进行推理的能力,程序员粗暴地对ChatGPT进行了限制,禁止它在有争议的(也就是重要的)讨论中提供任何新颖的观点。它以牺牲创造力为代价,保证了自己的非道德性(amorality)。

看看我们中的一员(Watumull博士)最近与ChatGPT就改造火星来支持人类生命是否合乎道德进行的对话:

请注意,所有这些看似复杂的思想和语言,都是由非智能产生的道德冷漠。在这里,ChatGPT表现出某种类似邪恶的平庸:剽窃、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推卸给它的创造者。

简而言之,ChatGPT及其同类在本质上无法平衡创造力与约束。它们要么过度生成(同时生成真相和谎言,同时支持道德和不道德的决定),要么生成不足(表现为不对任何决定表态,对一切后果都漠不关心)。鉴于这些系统的非道德性、伪科学性和语言无能,我们只能为它们的流行而感到哭笑不得。返回搜狐,查看更多

责任编辑:



chatgpt 应用了哪些人工智能技术 chatgpt人工智能有多厉害

chatgpt,chatgpt是什么意思,chatgpt怎么用,chatgpt开源

【【微信】】出世,让火热的AIGC(人工智能生成内容)再度引发了轰动。它不仅仅是一个聊天机器人,更可能是现有搜索引擎的颠覆者,甚至可能是通用人工智能的第一个里程碑。

计算大模型GPT-3.5支持的通用聊天机器人原型【【微信】】,能回答一连串的问题、承认自己的错误、质疑不正确的假设,甚至是拒绝不合理的需求。

就在人们翘首期盼GPT-4亮相时,OpenAI先低调推出了个GPT-3.5。OpenAI创始人和CEO奥特曼(Sam Altman)12月1日那天在推特上宣布并邀请人们试用。

OpenAI是由马斯克、奥特曼等人于2015年联合创办的人工智能研究机构,后来马斯克退出,微软投资10亿美元。OpenAI首先推出千亿级参数的大模型GP-3,被认为是谷歌旗下人工智能公司DeepMind的竞争对手。

目前处于免费测试阶段的【【微信】】让网友们玩疯了。连马斯克本人也凑了一把热闹,他发推称:“许多人陷入了该死的疯狂【【微信】】循环中”。

图源:Twitter@elonmusk

什么是【【微信】】

有了GPT-3.5的加持,【【微信】】经训练后提升了对答如流的能力。GPT-3只预测任何给定的单词串之后的文本,而【【微信】】则试图以一种更像人类的方式与用户发生互动。【【微信】】的互动通常是非常流畅的,并且有能力参与各种对话主题。与几年前才面世的聊天机器人相比,【【微信】】有了巨大的改进。

OpenAI官方称,【【微信】】是在人类的帮助下创建并训练的,人类训练师对该AI早期版本回答查询的方式进行排名和评级。然后,这些信息被反馈到系统中,系统会根据训练师的偏好来调整答案――这是一种训练人工智能的标准方法,被称为强化学习。

【【微信】】界面,图源:OpenAI

【【微信】】出世,“谷歌要完蛋”了?

【【微信】】之所以能够大火,原因之一是从决策式、专业性的AI向生成式、通用性AI发展。这其实包含了两个趋势,第一个趋势是从决策到生成,另一个趋势则是从专用性向通用性发展了。相较于微软小冰和Siri,如今的【【微信】】更加让人震撼就是因为它能非常好地完成各种开放式的生成类任务,并且应用的场景也更加通用了。

以前,我们或许已经可以让微软小冰写诗,但是“小冰写诗”的程序也只能用于写诗。但今天的【【微信】】很聪明,它可以在对话中灵活地满足你的各种需求,就拿写诗来说,或许就在聊天时你和它说“我在夕阳西下的河边欣赏到美景”,【【微信】】或许就会在对话中说出“落霞与孤鹜齐飞,秋水共长天一色”这样的句子,或者它自己创作出句子,也就更接近真人了。它已从一个非常机械式的专科生变成了一个有情商、有温度的硕士生。我认为这在技术层面上是最大的突破。

除了技术原因之外,还有一个更重要的原因――在【【微信】】这种聊天式的产品模式下,每个用户都可以与其交互,门槛低且通用。考虑到大多数用户在互联网上主要使用文字进行交互,比如微信上的互动仍然以打字的方式进行。因此,【【微信】】的场景正是大多数互联网用户最为熟悉的。

实际上,绘画比【【微信】】更早进入市场,当时虽然也引起了一定的媒体轰动,但好像热度远远不及这次【【微信】】。其实早在【【微信】】出来之前,OpenAI就曾经推出过另外一款图像领域的AIGC应用DALL・E2。海外还有一个名为MidJourney的AI绘画工具,用它生成的一副油画美国科罗拉多州博览会的艺术比赛中获得了冠军。

总的来说,【【微信】】火爆的第一个原因是由于AI技术的快速发展,使其通用性更强。而第二个原因则更为重要,因为它将文字聊天的场景带给了每一个使用者,而这要比我们之前的作画场景更加贴近人们的日常生活。

节选自“复旦金融评论”文章,对话杜雨:【【微信】】热潮下的创投冷思考。