庆云古诗词

庆云古诗词

gpt-3和gpt-4 gpt4和gpt3.5的区别

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

gpt3和gpt4区别,gpt3和gpt3.5,gpt3和gpt4,gpt3和gpt3.5和gpt4

本文来自微信公众号:新智元 (ID:【【微信】】),作者:新智元,原文标题:《GPT-5恐被叫停!马斯克、图灵奖得主等千名专家呼吁暂停超强AI研发,至少6个月》,题图来自:《终结者:创世纪》

就在刚刚,网上曝出了一封千位大佬的联名信,要封杀所有比GPT-4强的AI!

图【【网址】】

在这封联名信上,超过1000位大佬呼吁――我们应该立即停止训练比GPT-4更强大的AI系统,暂停期至少6个月。

目前签名的有,图灵奖得主Yoshua Bengio、Stability AI首席执行官Emad Mostaque、苹果联合创始人Ste【【微信】】、纽约大学教授马库斯、马斯克,以及《人类简史》作者Yu【【微信】】等等。

图/Twitter

看看这根本看不到头的签名,大佬含量过高了。

?图【【网址】】

能够集齐一千多位大佬的签名,想必这项联名已经准备多时了。

不过,同样作?为?图灵奖得主的Yann LeCun并没有签署:“我不同意这个前提。”

图/Twitter

另外,签名中还出现了一个所谓的“OpenAI CEO”,但根据马库斯和一众网友的推测,应该不是本人签的名。整件事非常扑朔迷离。

截止发稿前,他还特地@了一下【【微信】】确认消息。

图/Twitter

大佬联名:叫停比GPT-4强的AI

公开信表示,大量研究表明,得到顶级AI实验室的认可、具有人类竞争智能的AI系统,可能对社会和人类构成深远的风险。

正如广泛认可的Asilomar AI原则中所述,高级AI可能意味着地球生命史上的深刻变化,我们应该投入相应的考量和资源,对之进行规划和管理。

不幸的是,到现在为止,还没有任何人采取行动。

最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

如今,AI系统在一般系统上已经变得和人类一样有竞争力,我们必须扪心自问:

是否应该让机器用宣传和谎言充斥我们的信息渠道? 是否应该让所有的动作都变得自动化,即使是令人满意的工作?是否应该发展可能某一天会超越我们、淘汰我们、取代我们的非人类智能?是否应该冒险失去对人类文明的控制?

任何未经选举产生的技术领导者,都没有权利做出如此重要的决定。

只有当我们确信,这种AI的影响是积极的、风险是可控的时候,才应该开发强大的AI系统。而且,我们必须有充分的理由相信这一点,潜在的影响越大,我们就更加需要确信这一点

OpenAI最近关于通用人工智能的声明指出,“某个阶段,在开始训练未来的系统之前,进行独立的审查可能非常重要,而对于创建新模型所用算力的增长速度,也应该有所限制。”

我们同意这一点,而那个时间点,就是现在。

因此,我们呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,至少6个月。

这种暂停应该向所有人公开,所有人都可验证,并且要涉及所有关键成员。如果不能迅速暂停,就应该让政府介入。

在这6个月内,所有AI实验室和独立学者都应该合力开发一套共享安全协议,用于高级AI的设计和开发。协议完成后,应该由独立的外部专家进行严格的审计和监督。这些协议必须确保这些AI系统毋庸置疑的安全。

这并不是说,我们要绝对暂停AI的开发,只是说,我们应该从危险的竞赛中退后一步,转向具有涌现能力的、更大的、不可预测的黑箱模型。

所有的人工智能研究和开发,都应该重新聚焦于这一点――让当如今最强大的SOTA模型更加准确、安全、可解释、透明、稳健、对齐,值得人类信赖,对人类忠诚。

与此同时,开发者必须与政策制定者合作,大幅加快开发强大的AI管理系统。

系统至少应该包括:

  • 专门负责监管AI的机构

  • 出处和水印系统,从而帮助区分真实与生成的内容,并且能够跟踪模型的泄漏

  • 强大的审计和认证系统

  • 在AI造成伤害后,明确谁该承担责任

  • 为AI安全技术研究提供强大的公共资金

人类可以享受AI带来的繁荣未来。在成功创建了强大的AI系统后,我们可以享受“AI之夏”,收获回报,设计上述系统,以造福所有人,给全人类一个适应的机会。

现在,我们的社会已经暂停研发其他可能造成灾难性影响的技术。对于AI,我们也该如此。

让我们享受一个漫长的AI夏天,而不是毫无准备地进入秋天。

图【【网址】】

很快,这封千位大佬签署公开信就引发了舆论的轩然大波。

支持的人认为对于AI的恐慌是合理的,因其训练效率太高,智能的水平每天都在膨胀。

反对的人甚至贴出了爱迪生指示人画的交流电害死人的宣传海报,认为这不过是莫名其妙的指控,在别有用心的势力在误导不明真相的群众。

【【微信】】的态度耐人寻味

从最近发生的事来看,这封信的到来,可谓是千呼万唤始出来。

从去年11月底,ChatGPT仿佛叩响了发令枪,全世界的AI机构都在疯狂冲刺,卷到红了眼。

而“始作俑者”的OpenAI,脚步也丝毫没有放慢,联合着金主爸爸微软,它隔一阵就给我们来一个暴击。

先进的AI工具带给人们的恐慌,一波又一波冲击着所有人。

今天,大佬们终于出手了。

而在昨日公开的访谈中,【【微信】】的话中,竟有了一些耐人寻味的表达。

他说,GPT系列为何会出现推理能力,OpenAI的研究者自己搞不明白。

他们只知道,在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。

另外Altman在访谈中还说了这样石破天惊的一句:“AI确实可能杀死人类”。

而除了Altman,人工智能教父Geoffrey Hinton、比尔・盖茨、纽约大学教授Gary Marcus最近也纷纷发出警示:AI消灭人类,真的不是空谈。

OpenAI研究员预测:AI将知道自己是AI

无独有偶,来自OpenAI治理团队的Richard Ngo,也对两年后AI的发展程度进行了预测。在此之前,他是DeepMind的AGI安全团队的研究工程师。

根据Richard的预测,神经网络在发展到2025年底时将具备以下特性:

  • 拥有人类水平的态势感知,比如知道自己是神经网络等

  • 在撰写复杂且有效的计划方面超过人类

  • 比大多数同行评审做得更好

  • 可以自主设计、编码并分发完整的应用程序

  • 在任何一项白领工作者可以在10分钟内完成的计算机任务上胜过任何人

  • 编写能获奖短篇小说,以及长达5万字的书籍

  • 生成连贯的20分钟电影

图/Twitter

不过,优秀的人类在以下几个方面仍然会做得更好(尽管速度要慢得多)

  • 写小说

  • 连续数天稳定地执行一个计划

  • 在科学研究上取得突破,比如定理的创新(尽管神经网络至少已证明了一个)

  • 与神经网络控制的机器人相比,完成典型的体力劳动任务

此处补充一下,通俗地讲,态势感知(situational awareness)是指个体对周围环境中发生的事件和情况的感知、理解和预测。这包括了解周围环境的动态变化,评估这些变化对自己和他人的影响,以及预测未来可能出现的情况。

有关态势感知在AI研究中的具体定义,可以参阅下面这篇论文:

论文地址:https://arxiv.org/abs/2209.00626

Richard表示,自己的预测其实更接近2年,但由于不同人会采用不同的评估标准,所以2.75年似乎更稳健。

此外,这里提到的“预测”是指,Richard认为这个观点的可信度超过50%,但不一定比50%高很多。

需要注意的是,预测并没有基于任何与OpenAI有关的特定信息。

网友翘首以待GPT-5

相比于十分谨慎的大佬,网友们在体验了性能炸裂的GPT-4之后,显然已经迫不及待地等着GPT-5的到来了。

最近,关于GPT-5的预测,更是就像雨后春笋一般冒个不停……

根据一个神秘团队的预测,GPT-5将在GPT-4的基础上,带来一系列令人兴奋的功能和增强的性能,比如在可靠性、创造力和适应复杂任务方面的全面超越。

  • 个性化模板:根据用户的特定需求和输入变量进行定制,提供更个性化的体验

  • 允许用户调整AI的默认设置:包括专业性、幽默程度、说话语气等

  • 自动将文本转换成不同格式:如静态图像、短视频、音频和虚拟模拟

  • 高级数据管理:包括记录、跟踪、分析和共享数据,从而简化工作流程并提高生产力

  • 辅助决策:通过提供相关信息和见解,协助用户做出明智的决策

  • 更强的NLP能力:增强AI对自然语言的理解和响应,使其更接近人类

  • 集成机器学习:允许AI不断学习和改进,随着时间的推移适应用户需求和偏好

作为过渡的GPT-4.5

此外,这个团队还预测,作为过渡的GPT-4.5模型将在2023年9月或10月推出。

GPT-4.5将建立在2023年3月12日发布的GPT-4的优势基础上,为其对话能力和上下文理解带来更多的改进:

  • 处理更长的文本输入:GPT-4.5可能会在保持上下文和连贯性的同时处理和生成更长的文本输入。这一改进将提高模型在处理复杂任务和理解用户意图方面的性能。

  • 增强的连贯性:GPT-4.5可能会提供更好的连贯性,确保生成的文本在整个对话或内容生成过程中始终关注相关主题。

  • 更准确地回应:GPT-4.5可能会提供更准确和上下文相关的回应,使其成为各种应用的更有效工具。

  • 模型微调:此外,用户可能也可以更加便捷地微调GPT-4.5,从而更有效地定制模型并应用于特定任务或领域,客户支持、内容创建和虚拟助手等。

参照目前GPT-3.5和GPT-4的情况,GPT-4.5很可能也会为GPT-5的创新奠定坚实基础。通过解决GPT-4的局限性并引入新的改进,GPT-4.5将在塑造GPT-5发展过程中发挥关键作用。

参考资料:

https:/【【网址】】/open-letter/pause-giant-ai-experiments/

https://chatgpt-5.ai/gpt-5-capabilities/

https://twitter.com/RichardMCNgo/status/1640568775018975232

本文来自微信公众号:新智元 (ID:【【微信】】),作者:新智元


c+程序设计教程学习指导 c+语言零基础开发教程

c程序设计经典教程,c程序设计实用教程,c程序设计简明教程,c程序设计视频教学

ChatGpt的呈现,前端真的已退伍?

C/C++ 从0到1系统精讲 项目开发综合基础课

download:【【网址】】/thread-543-1-1.html

在过去的几个月里,我与许多职业初期的开发者交谈,他们对人工智能越来越感到焦虑。他们看到了像GPT-4这样的工具越来越令人印象深入的演示,并担忧当他们纯熟控制HTML/CSS/JS时,就没有工作时机了。

这种心情如今充满在Twitter上:

我完整不同意这种观念。我以为web开发者的工作不会消逝。而且,我对网上传播的恐慌、不安和疑心感到十分腻烦。

所以,在这篇博客文章中,我将分享我的假定,事情会发作变化,但并不像人们所说的那么可怕。

再来一次

CSS 言语初次发布于 1996 年,在 Internet Explorer 3 中问世。在两年内,第一个“无代码”网站构建器 Homestead 上线了。

Homestead 让人们能够在不编写一行代码的状况下构建自定义网页:

自从一开端,就有人担忧 Web 开发人员会被某种新技术取代。在 2000 年代,这种担忧指向了 WordPress。在 2010 年代,是 Webflow。在 2020 年代初,是“无代码”工具。

从某种水平上说,Web 开发人员曾经被取代了!往常,假如一家当地的面包店、牙医或艺术家需求一个网站,他们可能不会雇佣开发人员,破费数万美圆从头开端树立一个网站。他们会选择运用 S【【微信】】,找到喜欢的模板,并每月破费 20 美圆。

但是,Web 开发人员仍然存在。

上周,OpenAI 展现了 GPT-4。这个展现中有一个相当令人印象深入的演示:GPT-4 能够将手绘的网站草图转换为功用完善的网站,以至包括一点 JS 来衔接 “Re【【微信】】”的按钮。

这是十分了不起的,我以为这关于原型设计具有很大的潜力……但我们要明白的是:几十年来,我们并不需求 Web 开发人员来构建这类页面。这个 HTML 文档与现今前端开发人员编写的代码之间存在着宏大的差别。

瞻望将来

到目前为止,我所看到的大局部演示都相当有限:一个简单的 HTML 页面或一个单一的 Ja【【微信】】 函数。这些是单个开发人员在一个下午就能完成的事情。

但这些只是初期阶段!假如事物以相同的速度继续加速,那么它将可以在几年内构建整个应用程序,对吧?

我在 LLM(GPT-4)方面远非专家,但我的确在高层次上理解它们是如何运作的。

从基本上讲,LLM 是超强大的文本预测器。给定一个提示,它们会运用机器学习尝试找出跟在提示后最可能的一组字符。

像 OpenAI 这样的公司破费大量时间和精神调整模型以改善输出。一大批人类标注者对模型的输出停止“评分”,模型随之学习和演进。

LLM无法考证其假定或检验其假说。它们无法确认本人说的话是对还是错。它们在玩概率游戏,并估量这个字符序列似乎与提示中的字符序列相容。

有时,答复中的局部内容是荒唐的。OpenAI团队将这些称为“幻觉”。

随着技术的改良,我们能够等待一些粗糙的边缘得到打磨,但从基本上讲,总会存在一定水平的不精确性。这些工具基本没有任何客观考证其答复的机制。

因而,精确性会进步,但永远不会圆满。假如我们议论让Web开发者失业,这是个问题。假如你不是程序员,你将无法判别哪些局部是精确的,无法发现幻觉。

但等等,在GPT-4演示中,我们看到AI是如何纠正本人的错误的!复制/粘贴错误信息,它将找到并修复问题。

但是,不是一切的幻觉都会招致异常。例如,我最近运用GPT-4生成一个React的组件,固然输出的质量令人诧异地好,但它在可访问性方面依然犯了一些错误。创立应用的人可能不会留意到这些问题,但最终用户肯定会留意到!

那么代码中的平安破绽呢?当事情呈现严重错误时,谁应该担任?

再多说一点:生成一个50行的HTML文档和生成一个消费就绪的Web应用之间有着宏大的差距。像这个博客这样的小型JS应用有大约65,000行代码,散布在900多个文件中。这还不包括书面内容,仅包括Ja【【微信】】和TypeScript。

即便精确率到达95%,这也将难以调试。这就像开发人员花几个月时间构建一个庞大的项目,但从未实践尝试运转任何代码,直到它100%完成。这几乎是噩梦。

AI并不神奇。它仅仅和其锻炼数据一样好。代码片段遍及互联网,通常是通用的。相比之下,每个代码库都是无独有偶的。很少有大型开源代码库。AI如何学会构建大型实践项目?

我们十分快地接近一个非开发者能够坐下来与聊天机器人一同快速完成一个小型独立项目的时期,这是如今人们运用像Webflow这样的工具来构建的。这太棒了!

但是我以为我们离主要科技公司辞退开发人员并用提示工程师替代他们还有很长的路要走。在我看来,有几个潜在的难以处理的问题障碍了这一愿景成为理想。

加强,而非取代

从这篇文章中,你可能不晓得我实践上对AI十分悲观。

我以为最有可能的状况是,像GPT-4这样的工具会整合到开发者工具中,用来加强有技艺的开发者所能做的事情。

木匠没有被电开工具取代,会计师没有被电子表格取代,摄影师没有被数码相机/智能手机*取代,我以为开发者也不会被LLM取代。

我曾经想过,或许开发者工作的总量会减少;毕竟,假如每个开发者的效率都大大进步,我们不是需求更少的开发者吗?

并非必然。目前,软件开发者的需求远远大于供给。在我曾经工作的每家公司,我们都有很多想做的事情,但遭到了开发者数量的限制。

假如开发者忽然变得效率进步两倍会发作什么?更多的错误将被修复,更多的功用将被完成,更多的利润将被发明。有很多事情要做,所以我们不会让开发者失业。

我实践上以为这可能会增加开发者工作的总量。

今天,有很多公司基本不雇佣软件开发者。我曾在一家名为Konrad Group的公司工作,这家公司为其他公司(其中许多是众所周知的品牌)开发网络应用。由于开发本钱很高,所以他们将开发需求外包,而不是内部雇佣开发者。

这些财富500强公司是依据当前软件开发本钱来停止计算的。让我们假定一些数字:假定他们需求4个开发者,每个人年薪15万美圆,总共60万美圆/年。对他们来说,支付50万美圆让代理商来管理这个项目会更有意义。但是,假如LLM真的能进步开发者的消费力,他们或许只需求雇佣2个年薪15万美圆的开发者来完成同样的工作。忽然之间,这个计算变得更具吸收力了!

让我明白一点:我不是经济学家,这些都是猜想。我并不是说我晓得事实会如何开展。我想说的是,这不是一个既定的结论,这对我们来说是不利的。没有人晓得这会如何开展,我曾经厌倦了那些以为最糟糕的状况曾经成为定局的人。

我们并非独一在停止这种讨论的人

艾伦・布莱斯(Aaron Blaise)是一位资深动画师和插画师。他在迪士尼工作了近20年,为《美女与野兽》(1991年)、《阿拉丁》(1992年)、《风中奇缘》(1995年)等经典迪士尼电影做出了奉献。

几周前,在阅读了这篇博客文章之后,他的观念对你来说可能会很熟习:他并不以为这些工具是要挟,而是以为它们会进步动画师的消费力,并带来更多的动画师工作。

如今,数十个行业的艺术家和学问工作者都在停止同样的讨论。人们担忧他们的工作行将被像GPT-4、DALL-E 2和Midjourney这样的AI所取代。

GPT-4能在模仿律师资历考试中获得前10%的成果。

我个人的信仰是,大多数在职专业人士会找到办法将这项技术整合到他们的工作流程中,进步他们的消费力和价值。某些任务可能会交给AI来完成,但很少有工作会被取代。

但是,假如我错了,LLM真的能够完整取代软件开发者呢?假如是这样的话,我疑心LLM将取代绝大多数学问工作者。

这不是一种能够经过转行防止的宏大影响。没有一个更高的范畴能够防止。因而,与其试图押注将来会带来什么,为什么不关注你热衷的事物,你感兴味的事物,以及你擅长的事物呢?

运用LLM来协助你学习

我从一些人那里听说,ChatGPT在学习技术技艺方面十分有协助。假如你在教程中对某个内容感到困惑,你能够请AI为你解释!

对我来说,这是一个十分有趣的用例。从实质上讲,ChatGPT就像一个编程同伴,能够协助你了解你不懂的东西。你能够向它提出详细问题并得到详细答案。

但我以为你需求当心。运用这种工具来协助你学习有正确和错误的办法。

错误的办法是把它当作GPS导航。当我需求开车去某个中央时,我会把地址输入GPS,然后无条件地遵照它的指示。固然我通常会抵达目的地,但这并不需求我付出任何心智努力。结果,我的方向感完整消逝了。如今,假如没有合成的声音通知我该怎样做,我就无法去任何中央。

与其把它当作GPS,我倡议你把它当作你是陪审团的成员,而LLM是被告,站在证人席上。

你会听他们说什么,但不会把它当作事实。你会坚持疑心,并对每个字都停止批判性考虑。

与其自觉地复制/粘贴ChatGPT生成的代码,不如逐行阅读,确保你理解其中的含义。向它讨教。关于看似可疑的事情,请运用权威来源(如官方文档)停止核实。请记住,LLM具有100%的自信,但并非100%精确。

假如你遵照这种战略,我以为LLM会提供很多价值。

盼望成为开发者的人的一条信息

我想写这篇博客文章的缘由,是特别针对那些正在学习web开发的人,他们感到焦虑和懊丧,觉得在整个范畴行将被淘汰的状况下,破费一切的时间/精神学习这些技艺是没有意义的。

我不能保证事情会不断坚持不变。我的确疑心AI会对我们的工作方式产生影响。我从2007年开端尝试运用HTML/CSS/JS,从那时起,事情发作了很大变化。开发者不断需求顺应,与技术共同进化。

但到目前为止,我看到的一切都没有标明我们的工作岌岌可危。我尝试想象,假如非开发者可以在不理解网络技术的状况下构建整个Web应用程序,状况会是什么样子?即便将来的GPT版本不再产生那么多的幻觉,我也想出了很多为什么这样做行不通的缘由。

我可能是错的。我没有水晶球。就我所知,太阳明天可能会爆炸。但我真的不以为我们正处在web开发人员被取代的边缘。我担忧很多潜在的开发者由于这个缘由而放慢了脚步。

我不希望你在5年后回忆,假如软件开发人员的需求愈加旺盛,懊悔你中止追求幻想。

总结

这篇文章的作者Josh W Comeau讨论了人工智能,特别是相似GPT-4的大型言语模型(LLM)对前端开发的影响。作者以为,虽然这些模型具有强大的生成代码才能,但它们无法完整取代前端开发人员。他提到了几个关键点:

LLMs不能考证它们的假定或测试假定,无法确认生成的代码能否完整正确。LLMs可能产生“幻觉”或错误,需求开发人员停止修复和调整。当生成大型项目时,这些模型的精确性可能会降落,招致难以调试的问题。平安性和义务问题依然需求开发人员的专业学问。作者置信,LLMs最终将成为开发人员的辅助工具,进步他们的消费力,而不是取代他们。这些工具能够被视为一种协作同伴,协助开发人员处理问题和学习新技艺。但是,他倡议慎重运用这些工具,并一直以批判性思想来评价其输出。

虽然AI技术正在不时开展,但作者以为前端开发者的工作并不处于被取代的风险之中。他鼓舞那些正在学习Web开发的人继续努力,不要由于担忧将来而放弃追求幻想。