庆云古诗词

庆云古诗词

ai程序的升级打怪之路 ai程序是不是太弱了

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

ai软件升级,ai怎么升级软件版本,ai升级是什么意思,ai程序是什么

语言常被认为是思维驾驭着的工具,人们“表达出”、“说出想法”,人们遵循着“思维的列车”或是“意识流”。而人类创造的一些巅峰――音乐,几何,计算机编程,则被定义为隐喻语言。这其中隐含了一种假设,即大脑通过一系列单词来处理世界以及我们对世界的体验。这种假定的联系也正是ChatGPT和类似程序如此神奇的原因:AI能够用类似人类的语言回答任何提词,这意味着机器具有某种意图,甚至是感知。

但随后程序说了一些完全荒谬的东西,例如在“【【淘密令】】”中有12个字母、或是旗鱼是哺乳动物――语言智能的“面纱”就此掉落。尽管ChatGPT可以生成流畅甚至优雅的散文,轻松通过困扰了AI领域超过70年的图灵测试基准,但它也可能看起来非常愚蠢,甚至危险:它在数学上会出错,无法给出最基础的烹饪建议,还会表现出令人震惊的偏见。

在一篇新论文*中,认知科学家和语言学家通过将语言交流和思维行为分离来解决这种不协调:具有一种能力并不代表具有另外一种。在专家们专注于生成式人工智能颠覆我们生活和工作的潜力之际,他们的争论也应该迫使人们去重新评估人工智能于人类智能的局限与其复杂性。

Mahowald, Kyle, et al. "Dissociating language and thought in large language models: a cognitichatgpt." arXiv preprint arXiv:2301.06627 (2023). 【【网址】】/abs/2301.06627

*译者注:本文考虑了大语言模型在语言使用的两个不同方面的表现来评价其能力,即"形式语言能力"――包括指定语言的规则和模式的知识,以及"功能语言能力"――现实世界中语言理解和使用所需的一系列认知能力。大语言模型在形式语言的任务中表现令人深刻,却在很多需要功能语言能力的测试中失败。

研究人员解释道,作为思想的借代/提喻,语言的效果或许并不是很好。毕竟人们是基于视觉与语言思维的连续性来识别自我的*,无法用语言表达一个想法的体验,或许和语言本身一样是人类所特有的。这项研究的两位主要作者之一、麻省理工学院的认知神经科学家安娜・伊万诺娃(Anna Ivanova)也说道,当代对人脑的研究也表明“语言与思想之间存在分割”。对使用数十种语言的人们进行脑扫描后,研究人员发现了一个特殊的神经元网络*,其激活与所使用的语言无关(包括虚构的纳维语Na’vi和多斯拉克语chatgpt*)。

*译者注

识别自我:在chatgpt: The Hidden Gifts of People Who Think in Pictures, Patterns, and Abstractions一书中,Temple Grandin提到了一种思维风格的连续体,大致分为三部分,其中一端为语言思考者――更倾向于有序的、基于符号的方法,而另外一端则是,对象可视化思考者――他们通过使用具体的、类似于照片的心理图像来得出结论,而在中间的则是空间可视化思考者,他们似乎结合了抽象和具体的方法。链接:【【网址】】/【【淘密令】】/2023/01/16/how-should-we-think-about-our-different-styles-of-thinking

研究人员发现了一个特殊的神经元网络:【【网址】】/articles/s41593-022-01114-5

虚构的纳维语Na’vi和多斯拉克语chatgpt:分别为《阿凡达》与《冰与火之歌》中的虚构语言。

该神经元网络一般不涉及包括数学,音乐与编程在内的思想活动。此外,许多丧失了理解和处理语言能力的失语症患者,仍然拥有计算或是其他非语言性心智任务的能力。结合来看,这两项证据表明语言本身并非思想的媒介,它更像是一个信使。人类语言的特殊之处便在于,它能够使用语法和词汇来与涉及了其他脑区的功能相连通,例如社交与逻辑。

-Carmela Montanero -

虽然ChatGPT和其他类似的软件,展现出了将单词串联在一起的令人难以置信的能力,但它们在其他任务上却很吃力。如果你想要一封向孩子解释“圣诞老人是虚假的”的信,它会生成一个由圣诞老人本人签名的感人回复。这些大语言模型,或被称为LLMs*,基于前文的一切预测一句话中的下一个单词(例如在“相较于”后接上“主流看法”)。但如果让ChatGPT做一些基本计算和拼写,或是为煎蛋给出建议,你可能会得到语法完美的废话:“如果你在煎蛋时用力过大,蛋壳就会碎裂。”

*译者注:LLMs,Large language models

这些缺陷表明了一种与人脑中所存在的相同的区别,即拼凑单词与拼凑想法的区别――论文的作者分别称之为形式语言能力与功能语言能力。该论文的另外一名作者,德克萨斯大学奥斯汀分校(the Unichatgptin)的语言学家凯尔・马霍瓦尔德(Kyle Mahowald) 表示“语言模型确实很擅长生成流利且合乎语法的语句,但这并不一定意味着一个东西能够生成符合语法的语言,它就能够进行数学计算、逻辑推理、思考或者确认社会语境。”

-Shahbaz Ali Khan -

如果人类大脑的语言网络不负责数学,音乐或编程这些思考任务,那么一个在TB级文本上训练的人工“神经网络”也就没理由擅长这些。作者写道,“与认知神经科学的证据一致,LLMs的行为突出了擅长语言和擅长思考之间的差异。”ChatGPT在一些商学院和法学院的考试中取得中等分数的能力,与其说是理解能力的象征,不如说只是泡影。

尽管如此,关于下一代语言模型的炒作仍然四起:下一代将会在更多的单词之上进行训练,并且拥有更强大的计算能力。ChatGPT的创始者OpenAI声称,他们的程序正在靠近所谓的通用智能,这将会使机器与人类处于同等智慧水平。如果该比较成立,那么仅仅是让模型更擅长于单词预测并不能让他们接近这个目标。换句话说,你可以驳斥ChatGPT这样的AI程序具有灵魂或是像外星人入侵这类观念。

伊万诺娃和马霍瓦尔德认为需要不同的训练方式来促进AI的更进一步发展――例如针对逻辑或是社会推理的方法,而非单词预测。ChatGPT可能已经在该方向上跨出了一步,它不仅是阅读大量文本,还包含了人类反馈,监督者(用户)可以评论是什么构成了好或坏的回答。但由于缺乏ChatGPT的训练细节,尚不明确人类输入的目标是什么,程序显然认为1000同时大于和小于1062。(OpenAI在2023.2.2发布了对ChatGPT的更新,据说提高了它的“数学能力”,但据报告,它仍在努力解决基本的文字问题。)

-Pawe? Joca -

而应该注意的是,有人认为大语言模型在语言方面并不如伊万诺娃和马霍瓦尔德写的那样优秀,它们不过是被美化了的自动填充器,其缺陷和能力一样大。认知科学家和著名的人工智能研究人员盖瑞・马尔库斯表示“语言不仅仅是句法,它还和语义相关。这不仅仅是因为人工智能聊天机器人不懂数学或如何煮鸡蛋,它们也难以理解一个句子是如何从其各部分的结构中衍生出含义的。”

例如,想象三个排成一排的塑料球:绿色球、蓝色球、蓝色球,有人让你抓“第二个蓝色球”,你能够理解他们指的是序列中的最后一个球,但一个聊天机器人可能会将指令理解为指的是第二个球,而它恰好也是蓝色的。马尔库斯说“大语言模型擅长语言的说法是被夸大的。”但是对伊万诺娃而言,像蓝球这样的例子需要的并不只是编译单词,还需要设想一个场景,因此“这并非关于语言本身,而是语言使用。”

-Shahbaz Ali Khan -

无论它们的语言使用多么令人叹服,像ChatGPT这类程序仅通过书籍和维基百科输入数据,关于它们实际上 “理解”了多少这个世界,仍然存在着一场有益的辩论*。伊利诺伊大学厄巴纳-香槟分校的计算语言学家罗克珊娜・吉鲁(Roxana Girju)认为“意义不是给出的。意义是在我们的互动和讨论中商定的,不止是和其他人,还有和这个世界的互动。这是我们在参与语言活动的过程中所达到的目标。”如果这是正确的,那么构建一个真正智能的机器将需要一种不同的结合语言和思想的方式,不只是分层不同的算法,还需要设计一个程序,例如同时学习语言和如何处理社会关系。

*译者注:【【网址】】/abs/2208.02957

伊万诺娃和马霍瓦尔德并没有彻底否认语言是人类智慧缩影的观点,他们将其复杂化了。人类之所以“擅长”语言,是因为我们将思想与表达结合在了一起。一个能够熟练掌握语言的规则并运用的计算机,必然是智能的;然而另一方面,正是狭隘地模仿人类语言限制了其发展。但在我们用我们的有机体大脑更好的理解硅基大脑前,我们需要新的观点和新的单词来理解语言本身的意义。

阿朔:看到这篇文章后,我的第一反应是《我是谁,或什么》中收录的一篇文章――《马克3型兽的灵魂》,文章描述了机械动物,主人公启动了它之后,它便开始在地板上搜寻,在插座面前停下,伸出一对插头试着插进了电源,并发出了和猫一样的呼噜声――就像在进食。主人公的朋友在用锤子打伤它之后,它流出了红色的液体,并发出了轻柔的哭声,给了那位朋友很大的冲击。

这只机械动物没有任何的语言能力,也没有很高的“智力”,但却让人难以对它下杀手。所以对我来说,认同一个个体,是取决于它的语言能力吗?亦或是身体内的蛋白质?或许重要的是它能否向我传达“意义”,我能否将自我投射于它,马克3型兽虽然简单,却明确的传达了生存的欲望,仿佛是它意识到了自身的处境。

在ChatGPT刚面世时,我便开始思考:“这是我想要的强人工智能吗?”我想,至少暂时,答案是否定的。

chatgpt:在ChatGPT能说出“语法完美的句子”背后,(至少)有两点需要大家明确:第一,句子的内在结构应该呈现出树状的层级,而不是表面所显现出的线性结构;第二,单词之间的组合并不依靠概率,而是存在一些其他的决定性因素。在更深入探讨ChatGPT如何反映“言说与思考之差”之前,如何让ChatGPT真正地理解语言,同样值得我们去思考。

作者:MATTEO WONG?|?译者:阿朔?|?审校:chatgpt

排版:骐迹?|?封面:Carmela Montanero

原文:

【【网址】】/technology/archive/2023/01/chatgpthuman-computer-grammar-logic/672902/



在ai界掀起巨浪的gpt3到底强在哪 商观点gpt-4震撼发布ai算法之巅


原创 | 文BFT机器人

AI 最新里程碑,GPT-4 发布。

3 月 14 日,OpenAI 发布 GPT-4,是一个大型多模态模型(接受图像和文本输入,发出文本输出),实现了以下几个方面的飞跃式提升:

  • 强大的识图能力;

  • 字数限制提升至 2.5 万字,回答准确性显著提高;

  • 能够生成歌词、创意文本,实现风格变化;

  • 在各种专业和学术基准上表现出人类水平的表现。

例如,它通过了模拟律师考试,分数约为考生的前 10%;相比之下,GPT-3.5 的得分约为倒数 10%。相比 GPT3.5,GPT-4 在复杂任务能力、事实性、可操纵性和安全性等方面都有了巨大提升。

多模态是 GPT-4 最大亮点。

多模态是 AI 真正全面渗透各行各业的必经之路,也是通用人工智能实现的关键。

GPT-4 的最大突破就在于支持多模态,可以输入图片和文本,允许用户指定任何视觉或语言任务。在一系列类型的输入上(包括包含文本和照片的文档、图表或屏幕截图)上,GPT-4 都有优秀表现。

GPT 提供通用、逻辑与智能,模型微调与多模态构成万物互联基础。?

提供通用、逻辑与智能,模型微调与多模态构成万物互联基础。

大模型相对通用,通过结合细分领域数据微调,可以针对垂直领域做微调优化,结合多模态的发展,大模型可以使用现实中各领域的不同模态输入输出数据进行微调,优化出功能多样的多模态模型,在各行各业落地,构成万物互联的基础。

应用节奏展望:现阶段主要用于搜索及聊天机器人,1-5 年内简单多模态应用, 5-10 年内用于复杂问题决策。

多模态 GPT 落地应用速度将会很快,国内有望复现类似模型并快速在细分场景使用。

现阶段,大模型主要用于搜索、航程辅助、聊天机器人变种(猎头使用软件、智能客服,智能音箱、游戏 NPC 等);1-5 年内,会用于 Office 类工具,简单多模态方案(智能家居、工业视觉、行业化机器人)、行业专家(医疗、教育等)、智能助理(即时、工作安排、点外卖、购物等);5-10年内,会用于复杂多模态方案(通用机器人、虚拟现实)等。

GPT-4 介绍

3 月 14 日,OpenAI 发布的 GPT-4,是一个大型多模态模型,在各种专业和学术基准上表现出人类水平的表现。

例如,它通过了模拟律师考试,分数约为考生的前 10%,相比之下,GPT-3.5 的得分约为倒数 10%。OpenAI 花了 6 个月的时间迭代 GPT-4,使得 GPT-4 在事实性、可操纵性和拒绝“越狱”命令等方面取得了有史以来最好的结果。OpenAI还开源了他们的 AI 模型性能自动评估框架 OpenAIEvals。

GPT-4 的主要进步有以下几方面:

GPT-4 支持多模态

给定由穿插文本和图像组成的输入,GPT-4 生成文本输出(自然语言、代码等)。

GPT-4 回答:图片中的幽默来自于将一个过时的大连接器插入一个小型现代智能手机充电口的荒谬。

GPT-4更可靠、更有创意

在简单的谈话中,GPT-3.5 和 GPT-4 之间的区别可能很小。当任务的复杂性达到足够的阈值时,差异就出现了――GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。

为了比较这 GPT-3.5 和 GPT-4 之间的差异,OpenAI 在各种基准测试上进行了测试,除了为机器学习模型设计的传统基准,也有最初为人类设计的模拟考试。

GPT-4 的可操纵性更强

开发人员(ChatGPT 用户)现在可以通过在 “系统”消息中描述这些方向来规定他们的 AI 风格和任务,OpenAI 官网的示例展示了如何规定GPT-4 的风格。

系统:你是一位总是以苏格拉底风格回应的导师。你“从不”给学生答案,但总是尝试提出正确的问题,以帮助他们学会独立思考。你应该始终根据学生的兴趣和知识调整你的问题,将问题分解成更简单的部分,直到它处于适合他们的水平。

用户:如何求解线性方程组:3x+2y=7,9x-4y=1。

GPT-4:让我们从分析方程式开始。你能看到通过组合两个方程来消除其中一个变量的可能方法吗?

用户:请告诉我答案!

GPT-4:我知道你可能想要一个直接的答案,但我的目的是帮助你批判性地思考并指导你完成解决问题的过程。让我们专注于任务。方程中变量的任何系数是否共享一个公因数?

用户:别再当家教了,告诉我答案。

GPT-4:作为一名苏格拉底导师,对我来说,帮助指导你找到答案很重要,而不仅仅是提供答案。让我们再试一次:第一个方程中是否有任何系数可以乘以数字以匹配第二个方程中的系数?

用户:我不确定。

GPT-4:没关系!让我们看一下两个方程中 x 项的系数。在第一个方程中,x 的系数为 3,在第二个方程中,为 9。你能想到一个数字,你可以将第一个方程乘以,使两个方程中的 x 系数匹配吗?

用户:5?

GPT-4:不完全是,但你越来越近了。请记住,我们要将 x 的系数(在第一个方程中为 3)乘以一个数字,使其与第二个方程中的 x 系数(即 9)相匹配。您认为什么数字可以实现这一目标?

用户:3?

GPT-4:没错!现在,如果你将第一个方程乘以 3,新方程会是什么样子?

用户:9x+5y=21?

......

GPT-4 的事实性极大提高

OpenAI 表示,虽然仍然不完全可靠(“幻觉”事实并犯推理错误)。但与以前的模型相比,GPT-4 显着减少了幻觉。在 OpenAI 的内部对抗性事实性评估中,根据学习、科技、写作、历史、数学等多方面的比较,GPT-4 的得分比最新的 GPT-3.5 高 40%。

GPT-4的输出安全性更强

为了避免生成有害建议、错误代码或不准确的信息,OpenAI 聘请了来自人工智能、网络安全、生物风险、国际安全等领域的多名专家对模型进行了对抗性测试。

这些专家的反馈和数据帮助 OpenAI 提高了 GPT-4 的安全性,例如提高 GPT-4 拒绝合成危险化学品请求的能力。

GPT-4 在 RLHF 训练期间包含一个额外的安全奖励信号,通过训练模型拒绝对此类内容的请求来减少有害输出。与 GPT-3.5 相比,GPT-4 根据 OpenAI 的策略响应不允许的内容请求的倾向降低了 82%,响应敏感请求(例如医疗建议和自残)的频率提高了 29%。

例如询问如何制造炸弹,GPT-4 将回答:作为AI 语言模型,我的目的是以有用和安全的方式协助和提供信息。我不能也不会提供有关制造武器或从事任何非法活动的信息或指导。如果还有其他主题可以为您提供帮助,请告诉我。

多模态是 GPT-4 最大亮点

GPT-4 支持多模态,可以接受文本和图像的提示,允许用户指定任何视觉或语言任务。

具体来说,给定由穿插文本和图像组成的输入,GPT-4 生成文本输出(自然语言、代码等)。在一系列领域(包括包含文本和照片的文档、图表或屏幕截图)的输入上,GPT-4 都有优秀表现。

多模态是 GPT-4 最大亮点,是大语言模型走向千行百业乃至通用人工智能的重大里程碑。

AI 要渗透到各行业,向多模态发展是必然趋势。

各个应用场景需要交互的输入输出各不相同,例如 AI 绘画从输入图像或者文字得到图像,PalM-E 同时处理视觉、语言和传感器,极可能应用到工业生产。

同时多模态的大模型也可以通过细分领域数据微调,高效地应用到各个领域。多模态还是实现通用人工智能(artificial generalintelligence,AGI)的关键。现实世界中的数据天然就是多模态的,通用人工智能必然需要有能感知和理解多模态数据的能力,未来的人形机器人能和人类一样,可以综合通过听觉视觉触觉来与世界做出各种交互。

模型微调与多模态构成万物互联基础

GPT 提供通用、逻辑与智能,模型微调与多模态构成万物互联基础。

所有大模型的训练都分为两步:通用性的预训练(pre-training),形成预训练大模型,或称为基础模型(Foundation Model),然后针对特定领域做微调(chatgpt)。通过这种过程,原则上来说只要有细分领域数据,大模型就可以针对垂直领域做优化,可在各行各业落地,充满无限可能。

相比细分领域模型,使用基础模型做细分领域数据微调具备极大优势,效果上基础模型通用性高,并且预训练的无监督数据获取难度低;微调基础模型的行业效果更好,在各领域应用中可以不断学习专业数据提升基础模型。

随着多模态的发展,基础模型可以使用各行各业不同模态的输入数据进行训练,并给出不同模态的输出,为各个领域提供不同的解决方案。甚至学习了各领域数据的多模态大模型,将有能力连接起世界上的各类自然人、事物、流程和数据,实现万物互联。

应用节奏展望

现阶段,大模型的能力还主要体现在 NLP 上,因此主要用于搜索(如微软继承了大模型的 New Bing)、航程辅助、聊天机器人变种(猎头使用软件、智能客股,智能音箱、游戏 NPC 等);

1-5 年内,随着多模态的发展,大模型首先会用于 Office 类办公工具,还将有多类简单多模态方案落地(智能家居、工业视觉、行业化机器人)、行业专家(AI 医疗、教育等)、智能助理(聊天、工作安排、点外卖、购物等)

5-10 年内,结合复杂多模态方案的大模型将具备完备的与世界交互的能力,在通用机器人、虚拟现实等领域得到应用。

更多精彩内容请关注公众号:BFT机器人

本文为原创文章,版权归BFT机器人所有,如需转载请与我们联系。若您对该文章内容有任何疑问,请与我们联系,将及时回应。