庆云古诗词

庆云古诗词

寰蒋瀹e竷openai鏂颁竴浠fā鍨媑pt-4 openai鍙戝竷鏇村己澶х殑gpt-4妯″瀷

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

windows 寰 蒋澹版槑,寰螽百度百科,寰寰怎么读音是什么,寰念什么?

目前 GPT-4 模型以及 AIGC(即 AI Generated Content,利用人工智能技术来生成内容)已经引发了科技和互联网企业的普遍关注。

3 月 15 日,360 创始人周鸿祎在接受采访时就表示,GPT-4 将成为互联网的“发电厂”,将大数据加工成水和电,通过 API 接口以 SaaS 服务的方式输出给千行百业,全面提升人类社会智能化水平。

“我认为 GPT-4 会掀起一场新的工业革命,带来新的社会分工,创造新的应用场景。”“GPT-4 的出现再一次验证了我的观点,ChatGPT 不是填空机,它已经具备了完全的真正的智能和理解水平,是通用人工智能的奇点和强人工智能到来的拐点。”周鸿祎表示。

而在全球诸多互联网与科技企业中,最受关注的莫非微软和 OpenAI 这两家公司了,其中微软在本周宣布,将会把 GPT-4 接入微软 Office 全家桶,全面解放办公生产力。

微软透露,他们和 OpenAI 合作开发的人工智能辅助工具 Copilot 将会全面接入 Office 系列套件中,用于辅助用户在 Microsoft 365 应用和服务中生成文档、电子邮件、演示文稿等。

打开APP,查看更多精彩图片

这一新产品由 OpenAI 的 GPT-4 技术驱动, Copilot 会像一个助手一样出现在 Microsoft 365 应用的侧边栏,让 Office 用户可以随时召唤它,在文档中生成文本、根据 Word 文档创建 PowerPoint 演示文稿,甚至帮助使用 Excel 中的数据透视表等功能。

消息一出,立刻引发全球关注,AI 究竟是会取代打工人还是辅助打工人,目前仍是个未知数。

GPT 能力除了集成在 Microsoft 365 服务外,微软也在 3 月 16 日宣布了进阶产品 Power Platform Copilot,这一新品可以让 AI 替程序员开发 App

截图自微软

据微软称,Copilot 是 Microsoft Power Platform 的一个新功能,可以在 Power Apps、Power chatgpt 和 Power Automate 中基于 GPT 能力提供 AI-powered 的帮助,让制作者可以用自然语言描述他们想要的应用、流程或机器人,然后 Copilot 可以在几秒钟内完成创建,并提供改进的建议。

Power Apps

有了 Power Platform Copilot,制作者只需要通过几个简单的自然语言来描述应用,Power Apps 就会把应用生成出来,不仅仅是界面,还包括了数据表和业务逻辑。

截图自

比如用户告诉 Power Apps“生成一个员工入职应用,获取新员工信息,并分享培训内容和学习模块”,Copilot 就可以自动生成应用。

截图自

用户还可以通过和 Copilot 的对话来对应用进行调整,比如在数据表中添加新列,甚至是给数据表填充示例数据等等。就算是在应用制作中遇到问题,Copilot 也可以为用户提供应用的改进建议。

截图自

Power Automate

前不久 Power Automate 宣布可以通过自然语言创建自动化流程,但当时能够创建的流程只是一些较为简单的流程需求。

截图自

而通过 Power Automate Copilot ,无论需求的复杂度如何,都可以通过自然语言来生成流程。不仅如此,Copilot 还可以以对话的方式不断优化和迭代更新流程,因为这个 Copilot 的对话是直接嵌入在 Power Automate 编辑界面中的。

这让用户不需要任何 Power Automate 专业知识,只需要用自然语言就可以构建任何想要的流程。

截图自

另外在 Power Automate Desktop 桌面版本上,用户也可以使用 GPT 模型来生成文字内容,前些日子 AI Builder 中最新集成的 Azure OpenAI 服务,现在也可以直接在 Power Automate Desktop 中使用。

Power chatgpt

在 Power chatgpt 方面,GPT 能力也在先前已成功加入,用户只需引入一个网站地址,便可以将自己的 Power chatgpt 与网站内容、知识库等信息进行连接,让 GPT 自动生成回答。这个功能让企业可以快速为客户提供机器人服务,例如:

  • 在招聘流程中通过 Power chatgpt 构建了一个聊天机器人,用于回答求职者有关职位


    问chatgpt的100个问题 国内有没有类似chatgpt的产品

    问chatGPT的问题,问chatGPT的一百个问题,问chatGPT的有趣问题,问chatGPt的难问题

    1、iPhone是人体传感器和功能器官的延伸,chatgpt是人脑的延伸,只有互联网、浏览器、iPhone等少数发明能和chatgpt的颠覆性比肩;

    2、过去的计算机只能“模拟”,chatgpt可以“理解”;

    3、chatgpt之于过往机器学习,是后膛枪之于弓箭手,意义不在于两者的性能对比,而在于热兵器的时代已经开启,并且发展是加速度的;

    4、chatgpt是“自然语言计算机”,是人类调用数据与算力的近乎完美的形态;

    5、chatgpt会让“智力分发”的边际成本趋近于零,人力资本的杠杆变得无限大;

    6、所有系统与数据库都值得被chatgpt重做一遍;

    7、chatgpt应该关注理解能力的构建。

    但是上述的结论和比方,在看完全文之前,都没什么用,因为我们不知道是真是假。如果对chatgpt到底是什么不了解,那就只能比谁说话更语出惊人、更金句,而不是谁判断更准确、更有洞见。所以我们要花巨大的功夫,写出这篇文章,让大家知道我们知道什么,不知道什么。

    GPT-4在3月15日震撼发布了,但是本文观点、推演、结论不需要任何大改,因为对技术的理解是准确的,对能力范围的理解与推演也是准确的。其实文章并不是对GPT-4和能达到的事情有任何“预测”,而只是“简单推演”。所以就不重新修改了,对比现实,正好能让大家看清楚什么是天天变化的,什么是不变的。

    哪五个问题?

    在chatgpt纪元中,提问题的能力和判断力也许是人类最重要的两个能力。我们这里提出五个关键问题,并且试图抛开网络上的二手观点,做出基于原理的判断。围绕这五个问题,我们会把所需要知道的相关技术背景,尽量简洁但是无损地总结清楚,不说废话:

    1、是什么:chatgpt是范式突破,还是过往AI的延伸?

    2、会怎样:chatgpt两年内会达到什么水准?

    3、行业格局:chatgpt以及GPT有壁垒吗?

    4、如何参与:我们未来应该如何使用chatgpt?

    5、人文:人类和chatgpt的本质区别是什么?对人类社会的冲击?

    我们搞清楚这五个问题,就能判断市面上大多数解读chatgpt的观点,无论从技术、商业、投资等等角度,是否靠谱了。其实就两个关键:

    1、对chatgpt新能力的认知:这新能力到底是什么,有多大“不一样”?那个“不一样”能带来多少新的可能性?

    2、对“能力获取难度”的认知:chatgpt如何获得的?别人获取类似能力,难度有多大?

    文章结尾我们会做一下总结。让你下次见到某大模型,可以判断这是chatgpt的80%还是0%。也可以判断自己的工作会被chatgpt取代多少。

    为什么这样问?

    最近到处都在讨论chatgpt,但是对于chatgpt这样一个人类高科技结晶的新物种,不先搞清楚它“是什么”和“为什么厉害”,那就没有办法形成自己的判断。没有自己基于原理的判断,看chatgpt就像看元宇宙、Web3、自动驾驶一样,觉得好像很厉害,也有一套看似自洽的逻辑,以及振聋发聩的“洞见”,其实只能被别人牵着走。

    搞清楚chatgpt“是什么”和“为什么厉害”是一件困难的事情,因为最顶尖的人工智能大佬们也没有达成共识。比如Meta的AI负责人,深度学习三大佬之一的LeCun就不看好,认为这就是个基于auto-regressive(自回归)的LLM(large language model,大语言模型),从方法上来讲没有啥范式突破。只是因为OpenAI是个创业公司,大家宽容度比较高,chatgpt在乱说话,大家也能容忍。

    另一面,chatgpt的火热就不说了,比如特斯拉的首席AI科学家就选择回到OpenAI,共建AGI(artificial general intelligence,通用人工智能,也是OpenAI的追求目标);Meta的VR创始人卡马克选择离开Meta,自己开一家AGI公司。另外一篇文章[1]截取了大佬们的赞誉神奇的点就在于,双方也许都是对的。chatgpt的确不是一个“新的模型”,而是即有模型的发展与组合;但chatgpt又足够不一样,让包括我在内的很多AI相关的从业者,有第一次见到光的感觉。我们在第一章会花大篇幅去讲一下为什么chatgpt的原理是填词,但它的新能力却远远不是“填词”而已。

    技术插播:“自回归”“大语言模型”是两个关键词

    1、自回归的意思是,我先用模型预测下一个词是什么,然后把预测出来的词带入模型,去预测再下一个词是什么,不断迭代。这是过往语言模型的通用范式,也能让各类语言类任务统一成“生成式”任务。

    2、大语言模型的大是指海量参数,从而能吸取海量数据中的信息。这是在transformer模型之后成为可能的。大语言模型本身也值得技术科普一下,我们在第一个问题中展开。

    chatgpt的最基本版历史

    开始问问题之前,有一些必要的技术科普。我们着重参考两篇综述,尽量抓重点:

    1、大语言模型技术精要[2]

    2、chatgpt的各项超能力从哪里来[3]

    第一份综述主要讲了大语言模型发展中的关键技术突破,第二份综述主要讲了chatgpt发展过程中的几个重要模型“做到了什么”和“有什么与众不同的做法”。我们把两篇文章的重点挑出来,标注一下里程碑事件和其意义。

    事件 意义
    Transformer问世让深度学习模型可以“自由吸收”数据中的知识 大语言模型突破了参数和算力限制,从此语言模型也进入参数越多,数据越大,模型效果越好的时代。
    LLM内战,逐渐吊打老NLPGoogle的Bert路线和OpenAI的GPT路线各有所长 GPT通过“自然语言生成任务”,兼容了几乎所有NLP问题;但是Bert比GPT2表现好。此时大语言模型已经开始吊打传统NLP模型了
    GPT3问世展示in-context learning能力,简单调教下就能吊打精调过的很多模型 一方面让GPT模式初现一统江湖的潜质,一方面GPT3的 in-context learning能力,展示了和过往ML的fine-tuning模式的本质区别,我们在下面单独详细展开
    - InstructGPTchatgpt的交互模式,让GPT的能力,更加贴近人类真实交互方式 在in-context learning基础之上,进一步降低了prompting的门槛;一定程度解决了GPT-3生成结果与用户期望不一致的非预期输出,大幅降低了有害的、错误或偏差的输出结果,让GPT更符合人类胃口
    - GPT读代码代码训练能力的提升是GPT3到GPT3.5的重要迭代之一,模型从而可以生成代码和“理解”代码 Codex模型读了大量代码,之后的GPT3.5模型 涌现出了“乌鸦”的能力(第一问详解)不光能读懂和生成代码,对语言本身的理解和推理能力也解锁了
    - RLHFchatgpt背后的核心技术之一,让模型学习人类的偏好 全称是reinforcement learning from human feedback,通过构建人类反馈数据集,训练一个reward模型,模仿人类偏好对结果打分,是GPT-3后时代LLM越来越像人类对话的核心技术
    chatgptInstructGPT的亲戚,但一些优化方式也带来了chatgpt的更泛化和准确能力,再次引爆了AIGC chatgpt总体来说和InstructGPT一样是使用RLHF进行训练,但模型是基于GPT3.5,而且数据设置上也不同。chatgpt是一个输入,模型给出多个输出,然后人给结果排序,让模型可以学习人类的排序策略,即使是一本正经的胡说八道看起来也很合理的样子。

    这里面再强调一个关键点。GPT-3之后,很多能力是“涌现”的,即不是线性发展、可预测的,而是突然就有了。至于这对于OpenAI的人是早晚会发生,还是完全未预料,我们就不知道了。 这几个“涌现”出的能力,尤其是“乌鸦”的能力,是chatgpt和过往AI的范式不同,也会是我们这次讨论关注的重点。

    “涌现”也是大语言模型很神奇的一点,这些能力我们发现模型随着数据量和模型大小的提升,就突然具备了,但是我们对这些能力怎么出现的,只有猜想,没有共识。 这篇文章[4]有一个比较全面的总结和比较。

    GPT-3到chatgpt的演变历史

    如何分辨真假chatgpt

    结合上面的图和表格,我们简单梳理一下:

    1、GPT-3是一个非常令人惊艳的LLM,这个两年半前的播客有当时early-adopter的视角,但GPT-3还勉强属于“量变”,到现在,也不是最厉害的LLM [5]。

    2、GPT-3.5通过InstructGPT的模式 + 阅读代码, 涌现了“乌鸦”能力,产生了质变。但是还没找到合适的应用界面,也不符合人类喜好。

    3、chatgpt在RLHF的帮助下,找到了GPT-3.5和人类自然语言的合理接口,解锁了模型应用的前景。

    各LLM能力涌现路径

    所以我们要记得,厉害的模型是GPT-3.5,厉害的应用方式是chatgpt。应用方式相对很容易复制,RLHF有难度但也不太难,真正难的是“乌鸦”能力的复现。如果我们要关注能不能做出来chatgpt,要关注的是各家LLM离GPT-3.5的“乌鸦”能力有多远,在一个没有乌鸦能力的LLM上套一个chatgpt的应用方式,只是东施效颦。

    这里说“应用方式相对容易复制”,但是不意味着这个应用方式不够颠覆。iPhone出现时,很多人也只是觉得没有什么颠覆技术,只是个不错的集成方案 [6]。但那些人没看到的是,iPhone是第一个“为了适应人而设计的智能手机”而非“为了解决问题而设计的智能手机” [7]iPhone的交互方式和各种传感器,让iPhone慢慢变成了人类的身体的一部分,一个带来更多信息,高效交互的器官。 chatgpt已经接近目前人类调用算力和数据的最终极形态了,其应用方式本身当然是足够厉害的。我们在第二问,chatgpt会取代哪些工作里,详细展开。

    这里也牵涉到了一个重要的题外话,我们在讨论中发现,很多资深AI从业者,如果不去深究LLM的细节,而是用过往经验猜想chatgpt的能力来源时,会产生严重的错误理解。我们总结了一下,发现这误解大概是发生在in-context learning和instruct这一模式,和过往模型调教有什么区别上,尤其是对“fine-tuning”这个词的理解上。

    重要的题外话 -- AI从业者为什么对chatgpt有错误理解?

    过往的NLP模型是按照具体任务和具体数据来训练的。所以数据质量越好,模型效果越好。而且最好只有正确数据,没有错误数据。大语言模型有一个重要不同,是“数据越多”越好,而数据质量变成了重要,但稍显次要因素。

    在一开始,大模型想要在特定任务上取得较好效果,也需要那个领域的具体数据去 “fine-tune”一下。通过大量的例子,先教给模型,那个领域中什么是好,什么是坏,调节一下模型的权重,从而输出恰当的结果。这和过往模型的范式是差不多的。这样的应用明显非常有局限。每做一些新的事情,或者数据分布有明显变化,都要重新训练一遍模型。而新事情和新数据无穷无尽,模型就只能刷新。但是模型的刷新也可能导致过去做得好的事情突然做不好了,进一步限制了应用。

    而GPT-3涌现出的in-context learning能力(现在其他大模型也有,比如Google的PaLM,同时不确定GPT-3是第一个涌现的,希望得到指正)和上述范式有本质不同,“过往的fine-tuning”需要更改模型参数,也就是说,换了个新模型。但是in-context learning, 模型并没有变化,却能在新数据上表现更好。研究甚至发现,你给大模型一堆范例,只要对应关系整体是对的,这时候改变具体对应的顺序,大模型仍然能输出正确的结果。这真的很神奇。再重新强调一遍,模型没有变化,没有被重新训练,但是能“理解”新数据,并且表现更好。

    接下来还有更神奇的。在GPT-Codex版本解锁了推理能力,以及InstructGPT提出了instruct这一方法,他们合体的chatgpt在in-context learning的基础之上,展示出了具备理解、推理、演绎能力的样子。我们在下一章详细展开。

    一个重要的关系图

    我做了一副图来表示他们的关系(3.16迭代成V2)。注意几点:

    1、过去的ML的“fine tune”,“数据飞轮”,本质是为了迭代模型本身,用新模型解决新问题。

    2、而pre-trained大模型的关键思路是用大模型来解决所有问题。模型本身不变化。

    3、虽然InstructGPT和chatgpt改变了大模型的参数,但是:

    「加工」,而不是「迭代」

    「激活」了GPT-4的部分能力,而不是「赋予」GPT-4任何新能力

    是人类偏好 「对齐」,而不是去「训练」GPT-4

    4、chatgpt是「基于chatgpt范式下」做到的。我们对chatgpt颠覆能力的绝大多数推演,仅来自于「把给chatgpt的接口开放给公众」。甚至都没讨论其他突破的可能性。

    chatgpt是范式突破吗?

    机器学习发展了这么多年,遵循同一个范式。哪怕2016年大火的AlphaGo,也完全没有脱离这个范式 -- 鹦鹉学舌。

    1.1 过往机器学习的范式 -- 鹦鹉学舌

    机器学习,包括深度学习,所遵循的范式是“data fitting”,即找到数据中的 “对应关系”并应用。具体来说,就是Y=f(X),给定一些优化目标,机器学习寻找X和Y的对应关系,来优化一个特定的方程。对应关系找得好,让我们在见到一个未知的X‘的时候,也能根据规律,总结出Y‘是什么,能最好达到设定的目标。

    这就很像鹦鹉学舌的机制。鹦鹉是不知道那段话的意义的,它用自己的方式去理解了这个发音,并且模仿了出来。计算机能更加精准地进行控制和编程,配合其他模块能力,就能让“寻找对应关系”这个能力,发挥更大作用,比如:

    2、Matrix completion + 用户数据收集,就能高效推荐

    3、把游戏规则恰当转化为优化方程 + 问题的局部抽象 + 自己生成对局训练,就能下围棋

    举例:推荐算法的原理

    想象一个矩阵,横着是不同的人,竖着是不同的短视频,格子里是这个人对这个短视频的兴趣指数,我们要想方设法填满这个格子,给每个人推荐最感兴趣的短视频

    核心问题是在每个人都没看过99.9999999%短视频的情况下,这题怎么解

    有很多种方式,传统的运营、策略,也是一些方式。现有算法的主要做法是

    1. 把每个视频抽象成特征

    2. 把每个人抽象成特征

    3. 通过特征对特征的方式进行泛化和填表,如果用人来理解的角度,可能是

    中年男人喜欢看钓鱼(内容+画像推荐)

    你同事们喜欢看老板点赞过的视频(关系链)

    看过AB的人喜欢看C(collaboratichatgpt)

    但是记得,模型抽象出来的特征是适合机器理解,而不是适合人类理解的。用人类能描述的方式去描述机器的优化,注定是降低效率的

    由此可见。过往AI应用的拓展主要是来自几点:

    1、高质量的数据,模型的发展,算力的提升,让模型越来越准、快、和发现更多更深的“对应关系”,能进行更好的优化;

    2、更好地把商业问题转化为优化问题;

    3、和其他能力的深度结合;

    但是这些都是基于“鹦鹉学舌”这一范式的。过往的NLP(natural language processing,自然语言处理)就是一个很好的例子。发展了那么多年,语音助手能根据指令来达成一些目标,但是从来都没有真的“懂”那些指令。过往的NLP只能做“填表”,必须背后有一个人设定好具体的任务,规划好如何把语音或者文字形成固定的function,该function如何调用相应的能力。如果没有人提前规划,那模型就无法实现。这篇文章[8]总结的非常好,这里就不赘述了。

    1、亚马逊Alexa的思路和大多数商业语音助手的思路就是招一群程序员来写chatgpt,高情商说法是针对具体使用场景做深度优化。这里有总结。[9]

    2、谷歌的思路是用一个大模型做底座,一堆小模型做输入,另一堆小模型做输出。这条路也遇到明显瓶颈。

    归根结底,离开了“懂”的能力,鹦鹉的设计师,是很难穷尽世界上所有的语言应用组合的。说这么多,是为了告诉大家,“懂”这件事,是过往AI梦寐以求都想突破的瓶颈。

    “懂”字,如果深究的话,会发现大家对它的定义其实存在很大分歧。我如果让狗狗伸手,狗狗伸手了,是“懂”吗?过去NLP的懂和chatgpt的懂,又有什么区别呢?同样的问题存在其他词汇中,比如理解、推理、演绎、创新,等等。所以想要真的抓住chatgpt新能力的本质,描述就要更加精确和具体。

    华人最厉害的AI学者之一,朱松纯教授,在2017年有一篇思考人工智能和智能本质的文章,[10]开篇所举的例子,就非常深刻、精确、具体地抓到了这一本质。我这里复述一下。这篇文章80%的价值,可能就在这一个例子上。

    1.2 chatgpt可能的新范式 -- 乌鸦

    下面是原文,介绍了乌鸦是如何“感知、认知、推理、学习、和执行”的:

    总结一下,城市中的乌鸦通过观察,自主串通了:

    1、汽车能压碎坚果;

    2、红绿灯能控制汽车;

    3、车能撞死我;

    这三件事情,从而利用红绿灯和汽车,来帮自己达到“安全打开坚果”这一任务结果。

    如果类比成机器学习模型,过往“鹦鹉学舌”范式的解法,是要求所有乌鸦可以共享一个大脑,它们有很清晰的优化目标,即“保住性命的前提下打开坚果”。它们的方式是,随机尝试所有事件的组合,并向着最优解的方向不断演化。

    版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。