庆云古诗词

庆云古诗词

chatgpt是用的什么ai框架 ai研究专家谈chatgpt

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

chatgpt是什么意思,chatgpt下载,chatgpt怎么用,chatgpt账号

近日,ChatGPT的开发公司OpenAI发布了其最新研究报告《GPT是GPT:大型语言模型对劳动力市场潜在影响的早期观察》。

报告里提到,研究结果表明,ChatGPT和未来用该程序构建的软件工具,至少可以影响美国约19%的工作岗位所执行的50%的任务。同时,80%的美国劳动力会发现,其至少10%的工作任务在某种程度上受到ChatGPT的影响。

而其中受影响最大的职业包括口译员和笔译员、诗人、词作者、公关人士、作家、数学家、报税员、区块链工程师、会计师和审计师,以及记者。

其实自ChatGPT问世以来,关于“AI是否会取代新闻记者”的话题一直是媒体圈的讨论热点,甚至有不少媒体以此作为主题与ChatGPT开展“对谈”。

如今这份新鲜出炉的官方研究报告非常坦白的告诉各位:是的,ChatGPT确实会影响记者们的饭碗!

不知道各位媒体人作何感想?

《传媒见闻》以此为契机,邀请了几位媒体人共同来聊一聊,看看他们是否认同AI会加速记者失业。

注:因部分媒体人尚在媒体任职,为避免引发不必要争议,在本文中采用了化名,望各位媒体人谅解。

涂劲军深蓝财经创始人

人工智能对各行各业应该来说都会逐渐更深入影响,在长远来说,人工智能一定会替代人类做更多事,很多传统的职业一定会受到极大影响,类似于工业革命对农业时代的工作影响。记者行业作为一个工业革命时代产生的工作,在人工智能时代到来后一定会替代人类。但是在短期来说,因为技术局限性,替代性不会那么强烈,但流程化内容记者、通稿类记者、编辑的影响应该会受到极大影响,深度内容可能短期内不会有太大影响。

Vincy美新社编辑

尽管目前能够使用AI代替记者写稿,但这一前沿技术是否会加速记者失业,可能取决于AI发展到哪一步。如果AI高度精确,能够完全代替记者写稿,那大部分记者就失业了。如果AI没那么精确,写出的内容还有问题,比如事实不够精确,用词不符合常理,这个时候就需要记者出马了。记者通过自己的经验,对AI生成的稿件进行把关审核,调整有问题的地方,使之成为一篇合格的新闻稿件。

根据个人对【【微信】】人工写稿功能的体验,可以发现,AI写稿的优点在于,能够列出大量事实,语句衔接良好。不过,AI提供的事实,或许还需要写稿人审核,确保真实性。

总的来说,记者可以利用AI写稿,一定程度上提高写稿效率,但在使用过程中仍需保持谨慎态度。

以下是Vincy老师用【【微信】】做的写稿实验:

谭缘原新媒体编辑

可能比较理想化,但我觉得会加剧失业。因为人工智能做的事情,本质就是对信息进行搜集、整理、总结和分析,而记者的工作拆开看,其实也是这些。比如采访,其实就是搜集整理信息,而写稿则是总结分析信息。

在信息搜集环节,记者做采访突破的过程,会涉及人的沟通,存在感性因素。这的确是记者的护城河,即便AI再聪明,大概也不会有人愿意对一个机器人推心置腹。倒不是因为别的,就是觉得氛围不太对。所以只要当面采访还有必要,那记者就不会被取代。这样看起来,调查记者还是很吃香的,并且可能是越来越香,不过遗憾的是,还没等到 AI 时代,这个群体听说就已经消失了。

而考虑到AI的进化速度,它似乎能做好除了面对面采访外的所有事情。比如AI能监控舆情发现选题,还能结合各种网络信息,分析出潜在采访的对象,甚至一并找到联系方式,准备好采访提纲。这样一来,记者要做的,就只剩下采访执行了,更多的工作就是打电话或者赶到现场去采访。而且最好是还能赶到现场,因为结合AI营销电话越来越以假乱真的情况,可能连电话采访AI也能一并做掉。

至于写作,现在chatgpt的语料库,中文占比不到0.1%,大部分还是英文训练,但中文写作能力已经足够惊人,可以说这块AI没有对手。人的阅读和写作训练,不可能超过AI,虽然AI没有情感,但只要见得多,任何一种文字风格都能模仿,并且成稿速度以秒计算。对了,新闻报道不就是希望不夹带个人情感吗?这也是AI 写新闻的优势。

所以总的来看,在AI时代,AI虽然不能完全取代记者,但能取代记者的大部分工作。其实这个更像是说,AI不能取代所有记者,但能取代大部分记者。

张涛(化名)某媒体从业人员

就目前我的体验来说,大家的工作还是能保住的。因为现在的AI还停留在工具或者玩具的阶段,依赖于已有的数据库,而且对数据库的内容也缺乏甄别。

记者创造的东西才是数据库的源头。

郑婷深蓝财经编辑

从现阶段来看,我觉得人工智能不会加快记者失业。

诚然,人工智能的反应过程令人拍案叫绝,回答亦是逻辑清晰、用词到位,但是这些内容的产出只是基于它强大的搜索、整合能力,也就是说人工智能非常依赖已有的信息和数据,套用的是比较程序化的模板。

但是一篇优质的新闻,它不仅需要记者在第一时间赶赴现象,采写、筛选有效的信息,而且从采访、谋篇布局、遣词造句等各个方面都对记者的主观能动性提出了较高的要求。因此我认为,人工智能虽然看似“气势汹汹”,但实际上不太可能在短期内完全取代记者的创作价值,因为其难以用人类的视角、情感和判断力,写出一篇兼具准确、生动和富有人情味的稿件。

老凌(化名) 某媒体从业人员

有思想的记者永远不会失业,搬砖的本来就在失业的路上。人工会失去,智能永远不会。

更多干货内容,请锁定今晚8点【深蓝财经】视频号直播间↓↓↓↓

深蓝时间特邀三位行业领袖,与您共同探讨AI时代,我们所面临的机遇与焦虑。


chatgpt是真正意义上的ai吗 openai为chatgpt推出新的插件功能

chatgpt怎么下载,chatgpt国内能用吗,chatgpt下载,chatgpt怎么读

本文来自微信公众号:OneMoreAI(ID:OneMoreAI1956),作者:冠叔,原文标题:《智慧信息的压缩:模型智能的涌现之道》,头图来自:视觉中国

2月28日,OpenAI 的核心研发人员 Jack Rae 在参加 【【微信】】 的访谈时进行了一个名为 【【微信】】 的主题分享,其核心观点为:AGI 基础模型的目标是实现对有效信息最大限度的无损压缩。并同时给出了为什么这个目标是合理的逻辑分析,以及 OpenAI 是如何在这个目标下开展工作的行动原则。

我们认为这个不到 1 小时的 talk 是从去年 11 月 ChatGPT 出现以来,让人能够最大限度理解 OpenAI 工作思路的一个纲领性内容,在深入了解这个 talk 后,我们会对 OpenAI 的历史行为产生全新的认知,甚至有可能对其未来的动作进行某种程度的预测。

目前这个 talk 在 YouTube 上的播放量不高(截至3月25日的播放量是 4.5k),在国内的讨论更是寥寥无几,OneMoreAI 的学习小组对此内容进行了深入的学习讨论后形成了一些有趣的想法,在此与各位分享。

一、来自 OpenAI 的观点

让我们先来回顾一下这次 talk 的主要内容,在回顾之前我们介绍一下分享者:

Jack Rae 是 OpenAI 的团队负责人,主要研究大型语言模型和远程记忆。此前,他在 DeepMind 工作了 8 年,领导大型语言模型(LLM)研究组。从身份和经历来看,Jack Rae 可能是最有资格讨论 AGI 基础模型理念的人之一。

接下来我们回顾一下他在 talk 里的一些核心观点(本文不做详细展开介绍,更多内容请大家自行观看视频)

观点1:对完成某个任务有效方法的最小描述长度代表了对该任务的最大理解。

比如对英文到中文的翻译任务来说,通过将每个可能的词组查字典进行翻译,执行方法更复杂,同时效果也不好,所以这是一种描述长度更大的方法,同时也是一种更差的理解方式,而加入语法、固定词组搭配等规则信息后,翻译方法的描述长度更小了,并且翻译的结果也会更加准确,所以是一种更好的理解方式。

由此他提出,更小的有效方法描述长度代表了对任务的更好理解,当我们对有效方法无损压缩到最小长度时,就得到了对该任务的最优理解

观点2:使用大语言模型进行无损压缩可以对最小描述进行计算。

这是第一个让人醍醐灌顶的信息:

大语言模型对任务的理解能力(描述长度)可被量化,所以存在一种计算方法,能够对一个大语言模型的理解能力可达到的上限进行计算从而预测其性能。

这对整个基础模型的工作思路带来了一种全新的思考方式,这里我们先对 talk 中的内容进行简单回顾:

  • |D|表示数据集D的无损压缩;

  • 无损压缩的大小可以表示为对D评估的生成模型的负对数似然(即-log Pf(D) 加上估计函数的最小描述长度(即| f |  )

  • D评估的生成模型的负对数似然等于对 next token 预测损失的总和,即可以使用 loss 曲线的面积来计算;

  • 估计函数的最小描述长度等于语言模型的描述长度,即可以使用训练代码的大小来计算。

接下来是一个例子,通过上述的公式可以对比不同语言模型谁是更好的压缩器,以及如何计算出精确的压缩率。

  • 模型效果对比:LLaMA 33B 和 LLaMA 65B 两个模型有着相同的数据描述长度(用于训练的代码大小相同)。65B 模型有着更低的训练损失,根据我们上面的公式,把两项相加,我们可以知道 65B 是更好的压缩器。

  • 压缩比例的计算:LLaMA 65B 用于初始化和训练模型的代码约为 1MB,粗略地计算负对数似然大约是 400GB,而用于训练的原始数据是 5.6TB 的文本,因此该模型的压缩率为 14 倍。

通过这个公式我们还能得到另一个有趣的结论:假设我们在D上预训练 ,使得对数似然为 0,那么这个模型对于D的描述是完美的,但此时| f |的描述长度包含了D的描述长度,即| f |对于D的压缩毫无帮助,这也引出了下一个观点。

观点3:AGI 基础模型的目标不是对训练集的重建,而是通过压缩实现对训练集以外的信息实现最大限度表示。

图中的红色部分代表模型的训练集,白色部分是训练数据所对应的真实世界信息,压缩的目标并不是保证能对训练数据做更好的预测,而是设定为对训练数据所代表的真实世界信息能够最大程度的泛化表示。

这里 Jack Rae 给出了个人认为本次 talk 最重要的一个信息,即AGI 基础模型工作的总纲:明确 AGI 基础模型的目标(任务)并搜集尽可能多的有效数据,然后使用所有可能的无损压缩方式,从而得到对任务方法的最小描述长度。

以上是对 talk 中我们认为比较重要的信息所做的总结,但是我们认为这远远不足以完整展现其内容价值,我们强烈建议大家观看完整视频。

二、衍生思考

OneMoreAI 的学习小组对 talk 内容做了很多讨论,以下是一些衍生出的有趣的思考片段,大部分内容属于头脑风暴的性质,缺乏严谨性,仅供大家作为对视频内容观看后进行更进一步思考的参考方向:

什么是有效数据?

talk 中提出了一个很重要的概念:有效数据

在 Jack Rae 看来,有效数据的搜集是 AGI 基础模型工作总纲中的两项工作之一,其重要性不言而喻,遗憾的是 talk 中并没有这个有效数据的展开说明,我们在此对这个概念进行尝试说明。

我们的观点是:有效数据=含有人类智慧的数据

这个观点参考信息熵的定义,具体来说, AGI 基础模型是对人类智慧行为的概率预测,那么包含人类智慧信息的数据是对这种概率预测确定性的增强。

从这个观点出发,我们可以衍生出另一个概念:数据有效性的评估,即针对不同数据如何评估其对 AGI 基础模型的有效性,我们认为有两个评估维度:

  • 数据与现有模型数据中所包含智力的同质程度,同质化越高,有效性越低,比如通过使用通用文本数据集训练后,模型已经具备流畅的自然语言表达这种能力时:

新增一份资讯类文本数据便只能提升其世界知识,而无法提升语言表达能力,该类数据的有效性就变低了。

新增一份多轮对话数据,可以让模型提升原本不具备的对话能力,该类数据的有效性就是更高的。

  • 数据中包含人类智慧的密度,密度越高,有效性越高,比如对同样一份图像数据:

当我对数据的描述是一个标签(图像分类)时,其人类的智慧密度是很低的。

当对该数据中的特定目标进行框选标注并对目标名称打上标签(目标检测)时,其人类的智慧密度就变高了。

当对该数据进行细致的文字描述,说明图像其中包含什么物体,是何种颜色,描述了什么场景,那么这样一份文图数据对的智慧密度就更高了。

压缩器的形象表达

talk 中有一个观点:LLM 是目前 SOTA 的压缩器,为了更容易对压缩器这个概念进行理解,这里提供一种更直观但不严谨的表达:

如果我们把压缩这一动作,分为:

  • 压缩的方法

  • 压缩的力度

  • 压缩标的

按照这个划分,我们可以做如下类比:

  • LLM的算法架构可以类比为选择什么样的压缩方法,比如是用擀面杖(RNN)还是液压机(Transformer)

  • 模型尺寸可以类比为压缩的力度,比如擀面杖和液压机能够压出的力道(能够支持的模型尺寸)是不一样的。

  • 压缩的标的是我们上面提到的有效数据,比如压面团(文本分类)可能擀面杖和液压机都可以,但是要压铁块(多轮对话),可能擀面杖就不好用了,得用液压机。

所以比较直观理解的一个关系描述是:压缩方法会决定压缩的行为的效率以及有效压缩力度的上限;压缩力度决定了你是否能成功完成压缩任务;压缩标的决定了你该选用何种压缩方法。

更广义的压缩

talk 中指出:当目标是为了实现更好的无损压缩效果时,我们不应该限制所使用的方法,一些可使用方法的举例:

  • 模型架构

  • 模型尺寸

  • 第三方工具

  • 检索

  • 人工合成数据

只要是能够提升压缩效果的手段,都是AGI 基础模型的可选项,这里其实给到了一个更广义的压缩概念,生成模型只是被压缩过程的一个组成部分,而被压缩的完整过程是对应一个以生成模型为核心的系统,其中可能包含规则(如检索)、第三方工具等

这样一个广义的压缩对象降低了生成算法在 AGI 基础模型中的能力占比,但是会大幅提升整个 AGI 基础模型系统的智慧程度,ChatGPT(对话智能) 和 Plugin(使用工具的智能) 便是这样理念指导下的典型用例。

OpenAI 的行为解释

根据各种公开信息,我们认为 OpenAI 正是在上文提到的总纲的指导下有规划地开展了所有工作,以下是一些现象及其原因猜想:

GPT-3 预训练数据的体积相对稳定:

对于流畅的表达而言,目前的数据已足够,新增通用文本数据并无法提升数据中的人类智慧密度。

ChatGPT 只在对话任务上做了优化,为何却直接拥有了远强于 GPT-3 的场景化任务的能力,比如端到端的写作文案,邮件,小说,论文等:

这些能力来自于使用 GPT-3 接口去做各种写作应用产品的用户数据,包括应用开发者如何设计写作内容生成的规则,用户如何输入,输出到何种程度是更好的内容等数据,这些对于原始的 GPT-3 来说,都是人类智慧含量更高的数据。

OpenAI 不需要 langchain:

从传统产业链逻辑来说,OpenAI 提供基础模型能力,langchain 提供开发工具,这原本是没有太大冲突的,但是从获取更多含有人类智慧数据目标的角度,langchain 的存在会让“开发者是如何构建某种应用”这样一份极具价值的“有效数据”脱离 OpenAI 的控制范围。

一个悲伤的事实是:langchain 和 Plugin 对 OpenAI 来说都不重要,而没有 langchain 对 OpenAI 很重要。

PS:Plugin 和被集成应用的关系绝不是目前很多人认为的 iOS 和 APP 的关系。

更多的工具,更小的模型:

当加入检索后,模型只需掌握如何调用检索接口以及如何基于检索结果进行生成;当加入计算工具后,模型便可以将解决问题的办法简化到如何使用计算器,而不是生成计算结果。

这从生成模型的技术角度评估是一种妥协和消极,但从“提供解决问题方法的最小描述长度”这个目标来说就很进步。

大模型应用的发展怪圈

ChatGPT 出现以来,我们已经看到了太多的大模型应用在经历“其兴也勃焉,其亡也忽焉”的发展怪圈,每一代新的 GPT 发布同时也带来了上一代 GPT 应用的退场。

辩证的来看其底层逻辑:应用开发者在享受底层模型带来强大基础能力红利,从而能够低成本快速制作应用的同时,也需要接受缺乏核心模型技术以及业务逻辑和用户数据不受掌控的风险,这种风险的直接体现就是应用能力被新的底层模型能力覆盖。

在此模式下,OpenAI提供算法+微软提供产品的组合,带来了一种特殊的生态循环规律:

  • OpenAI 提供最新的低成本的算法能力;

  • 开发者基于新的模型能力创建新应用;

  • 平台长出好的应用;

  • OpenAI 使用这些应用的创建方法和其上的用户使用数据迭代其算法能力;

  • 微软将优化后的算法能力接入其产品,选择性覆盖掉一些高价值场景应用,并启动下一轮循环。

曾经,大家兴奋地认为大模型提供的强大基础能力将会创造一个更大的移动互联网时代,但现在看来,相比于 iOS 或者云服务,OpenAI 更像是一个超级应用提供者,这个超级应用基于在其上所产生的垂直应用以及这些应用所产生的用户数据完成能力迭代,对于以 AGI 为目标的 OpenAI 来说,所有的应用似乎只是下一阶段 AGI 能力的“有效数据”的免费提供者。

三、作为行业从业者的反思

曾经有一个物理和哲学双修的朋友和我分享过一个观点:复杂现象的底层存在着一些极度简单的原理,当你熟知并能灵活使用这些原理时便可以像推导公式一样对事物的发展进行演绎和预测。

Jack Rae 的分享是对这个观点一个很好的证明:大模型并不复杂,甚至可以被一个极其简洁的公式来精确计算。

回到我们的工作,大模型、思维链、模型智慧的涌现、AGI...... 从 ChatGPT 发布以来,我们每天都在被全新的技术概念、不可解释的新能力,以及各种技术分析测评的文章进行着信息轰炸。

我们能对不同的模型参数量、训练数据集、评测结果、模型演进路线如数家珍,可以每周都听到不同的行业峰会圆桌讨论,也能每天都从 ProductHunt 上看到全新产品思路。

这些唾手可得的信息让我们博学,而做出 AGI 可能还需要我们变得更加深刻,并进一步使用这种深刻去进行 OpenAI 式的思考,我们也许早已拥有了足够的可参考信息,问题只是何时开始自己的压缩进程。

静胜燥,寒胜热,清静以为天下正,为了中国自己的 AGI,与大家共勉!

感谢 OneMoreAI 的好朋友 :@Tim 周昕宇、@周舒畅、@田老师 对本文提供的帮助。

Reference

1. [【【微信】】 - Jack Rae | Stanford MLSys #【【网址】】/watch?v=【【微信】】&t=247s)

2. [压缩即智慧【【网址】】/p/616903436)

3. [语言处理中的压缩(WIP)【【网址】】/p/613280662)

4. [【【微信】】](https://mp.weixin.qq.com/s/【【微信】】AQ)

本文来自微信公众号:OneMoreAI(ID:OneMoreAI1956),作者:冠叔