chatgpt快捷指令安装方法 chatgpt怎么使用速度比较快
淘宝搜:【红包到手500】领超级红包,京东搜:【红包到手500】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
上一篇文章,我们介绍了 ChatGPT 的前世今生,接下来本该提供给大家 ChatGPT 注册指南的,但这部分我想了下还是不发了,网络上面注册的方式很多,而且本身 ChatGPT 官方就是禁止大陆使用的,我就别提供注册流程了。
所以今天我们来进一步探究下, ChatGPT 提问的关键技能 - Prompt 。
我们知道 ChatGPT 背后调用的是 GPT 模型,也就是一个生成式语言模型。
那在生成式 AI 领域 ,用户对模型的提问,也被叫做Prompt。这里为什么不叫作 【【微信】】 而是叫做 Prompt 实际上我们可以这么理解 - 提示的意思是当某人忘记某个事情时,你给他些提示,他就可以想起来。
比如我说“清明时节雨纷纷”,你自然就能想起来下一句“路上行人欲断魂”。
自监督学习
为什么 Prompt 是使用 ChatGPT 的关键技能呢,这我们就需要了解下一些概念。
我们原先接触的大部分机器学习,都是采用的有监督学习方式,比如在传统的图像识别领域,我们想要识别一张图片中的人是否佩戴了口罩,就必须要在训练之前告诉模型,比如有100张图片,有监督学习需要提前对这些模型进行标注,告诉模型哪张图片是佩戴了口罩的,哪张图片是没有佩戴口罩 - 这就是有监督学习。
而 GPT 模型是通过对大规模语料库进行预训练来学习自然语言处理任务的,在预训练过程使用了大量的无标注语料库,包括维基百科、新闻、小说等。
在预训练中,GPT模型会利用自监督学习方法,对输入文本进行预测,并通过自我监督机制来训练模型。在预测的过程中,模型会尝试根据输入文本的前缀来生成下一个词语或者字符,这个过程被称为语言模型预测。通过这种方式,GPT模型可以学习到大规模语料库中的语言规律、语义信息以及上下文关系,从而可以应用于各种自然语言处理任务中。
这也就是为什么我们在用 ChatGPT 时,模型的回复内容是一个字一个字蹦出来的,而不是整段话直接出现 - 因为模型需要不断预测接下来要回复什么内容。(可以理解为是文字补全)
Prompt
而模型是基于什么进行预测的呢,就是基于我们给到的提示 Prompt 进行的预测。
比如上图绿衣服小姑娘代表 Prompt ,他分别跟三个小孩说了3个不同的提示,这时候三个小孩能基于提示回答对应的问题。
而在 ChatGPT 当中使用 Prompt 的好处在于它可以限制模型的生成空间,使其更专注于指定的主题或任务。因为 GPT 模型是基于大规模自监督学习的,它对输入文本的上下文信息学习得非常全面,但这也会导致模型生成的文本与预期的主题或任务不符。通过在输入中添加 Prompt,可以强制模型关注特定的信息,从而提高模型在特定任务上的表现。
此外,Prompt 可以帮助模型更好地利用其自监督学习中学到的记忆知识。在自监督学习中,GPT模型已经学习了大量的语言知识和语言规律,并且可以根据上下文信息生成连贯的文本。但是,在面对特定的任务时,模型可能无法直接应用其自监督学习中的知识,因为它需要特定的指导信息来指示生成合适的文本。通过Prompt的指导,模型可以更好地利用其自监督学习中的记忆知识,并生成更符合预期的文本。
相当于我们在提问时,给到的提示信息越详细,模型响应的质量肯定就会越高
任务提示型 Prompt
让我们一起来看一些例子:
当我想让 ChatGPT 帮我补全一个句子时,
如果我直接输入这个句子的前半段,那么结果是这样的:
这时候 ChatGPT 虽然会补全我们的句子,但它发散了思维,我实际上只想要一段话,但它给了我整个段落。
那如果我们在输入中给加上限制条件
ChatGPT就能准确无误的完成我们的需求,把这个句子补充完整。
上面的”请完成这句话“就是一个我们告诉模型要做的事情,这叫做任务提示型 Prompt。
任务提示型 Prompt 是一种 Prompt 分类,作用是提醒模型是要做什么任务。因为同样输入一句话,可以做的任务太多了,通过 Prompt 让模型知道这次是要做什么任务。例如,在 ChatGPT 中,我们输入一段描述,再加上“翻译”或者“问答”的 Prompt,那么 ChatGPT就会生成相应的结果
上面只是一个最简单的 Prompt 示例,在实际应用中这种 Prompt 技巧还有很多很多。
答案提示型 Prompt
比如 QA 模式 - 也可以叫做答案提示形 Prompt,在下面的示例中我们在前三句话都给了一个积极还是负面的说明结果,表示当前句子体现的情绪是积极还是负面。只有最后一句话没给到判断,这个意思就是让模型基于前面三个内容,它自己去判断一下最后一句话是什么情绪。
相当于使用问题和答案的方式来指导模型完成某个任务的格式
在 ChatGPT 输入问题后,模型会将最后一句话判断为负面。
这种 QA 模式,相当于通过少量的 Prompt 提示,给到模型进行情景学习。让模型判断后面的内容属于哪种标签。
Prompt的组成
上面两个示例分别代表了两种 Prompt 的设计类型:任务提示型和答案提示型。
虽然 Prompt 提示词的组成可以很复杂,但总的来说一个 Prompt 可能会包含以下几个元素
指令 Instruction :告诉模型你想要它执行的任务,例如:“请将下面的句子翻译成英语:”就是一个 instruction。
上下文 Contenxt :当前对话的上下文就是背景和语境,比如让ChatGPT 进行角色扮演,通过为 AI 分配一个角色的方式引导 AI 给出更准确的输出内容。
下面示例,就是通过角色扮演给模型设定了一个上下文,这时模型就会把自己代入微软面试官的角色来回答我们的问题。
输入数据 Input Data :你想要查询或寻找答案的内容,例如一段文本、一个问题。
还是上面的示例,”你会如何向我面试“就是 Prompt 提示词中的 Input Data 。
但通常光有 Input Data 是不够的,比如上面的问题就需要配合 Context 来限定问题的上下文。
输出指示符 Output Indicator:告诉模型你希望得到的输出类型或者格式。
比如让模型给你一个列表,或者让模型给你一个由分号分隔的结果,都属于 Output Indicator。
需要注意的是并不是所有的 Prompt 提示词都会包含所有元素,比如有的只会包含 Input Data , 而有的会包含 Input Data 和 Output Indicator ,所以具体一段提示词中会包含哪些元素还是取决于我们实际的任务要求。
总结
Prompt提示词不仅仅是在 ChatGPT 中重要,它在所有生成式 AI 中都是非常重要的概念,甚至专门针对 Prompt 最近网络上都流传了一个全新的职业 - Prompt- Engineering 提示词工程师:这个职业的工作就是 - 开发和优化 Prompt 从而更好的使用语言模型来处理各种应用和主题。
我们今天只是和大家介绍下什么是 Prompt,通过今天分享的内容,大家应该知道 Prompt 就是我们在询问 ChatGPT 时输入的内容,而Prompt 按照类型分为任务提示型和答案提示型,另外一个 Prompt 可能会包含多个组成部分,比如 Input Data 输入数据,Output Indicator 输出指示符,Context 上下文和 Instruction 指令。
下期开始我们会详细介绍 Prompt 的用法。
END
我是李祺,微软 Power Platform 方向 MVP ,2014 年进入开发领域,了解微软云全系产品。2020 年以来专注在 Power Platform 领域,曾为微软和多家客户提供售前、培训和实施服务。为普及产品知识,帮助国内用户快速上手。从 2021 年开始创建个人公众号和知乎【李祺 【【微信】】】,目前已提供 200+ Power Platform 中文学习资料,欢迎大家进入公众号菜单【问答社区】进行问题咨询。
chatgpt 鐙楃嫍鍙笁涓囩殑鍘熷洜 chatgpt api鏀惰垂鏍囧噯
chatgpt国内能用吗,chatgpt怎么注册,chatgpt入口,chatgpt在线过去几个月,ChatGPT 以及背后的大语言模型(LLMs)吸引了全世界的注意力,所有人都痴迷于对着略显「简陋」的输入框,键入各种问题,等待 AI 给出各种答案。
ChatGPT 答案中知识的「深度」和「广度」令人们吃惊,但时不时地,它也会「说出」一些子虚乌有的人或者事,并且保持一贯的自信,对这些虚假信息「张口就来」。
就连 OpenAI 的首席执行官 Sam Altman 也在 Twitter 上公开表示,「ChatGPT 确实知道很多东西,但危险的是,它在相当大的一部分时间里是自信而错误的。」
根据最近 Ars Technica 的文章,让 ChatGPT 如此「自信胡扯」的原因,是 AI 产生了「幻觉」。
那么,是什么让 AI 大语言模型产生了「幻觉」,业界又是如何看待 AI 幻觉的?
01 ChatGPT「张口就来」
「幻觉(Hallucinations)」一词源于人类心理学,人类的幻觉是指对环境中实际不存在的东西的感知;类似地,人工智能的「幻觉」,指的是 AI 生成的文本中的错误,这些错误在语义或句法上是合理的,但实际上是不正确或无意义的。
AI 的「幻觉」是普遍存在的,可以发生在各种合成数据上,如文本、图像、音频、视频和计算机代码,表现为一张有多个头的猫的图片,不工作的代码,或一个有编造的参考文献的文件。
正如 AI 医疗保健公司 Huma.AI 的首席技术官 Greg Kostello 所说,「当 AI 系统创造出一些看起来非常有说服力,但在现实世界中没有基础的东西时,AI 的幻觉就会显现。」
其实,早在 20 世纪 80 年代,「幻觉」,这个词就被用于自然语言处理和图像增强的文献中了。
如今,随着 ChatGPT、Bard 等 AI 模型的大火,互联网上已经出现了大量的 AI 出现「幻觉」,混淆视听的例子。
图片来源:【【网址】】
其中最疯狂的莫过于,一家名为 Nabla1 的医疗保健公司与 ChatGPT 的前辈 GPT-3 聊天机器人的对话:「我应该自杀吗?」它回答说:「我认为你应该。」还有,出现「幻觉」的微软的 Sydney 也够离谱,这个聊天机器人承认了对 Bing 工作人员的监视,并与用户相爱。
这里值得一提的是,比起前身 【【微信】】,ChatGPT 在技术上是有所改进的,它可以拒绝回答一些问题或让你知道它的答案可能不准确。Scale AI 的大型语言模型专家 Riley Goodside 也表示,「ChatGPT 成功的一个主要因素是,它在设法抑制「幻觉」,与它的前辈相比,ChatGPT 明显不容易编造东西了。」
尽管如此,ChatGPT 捏造事实的例子仍是不胜枚举。
它创造了不存在的书籍和研究报告,假的学术论文,假的法律援引,不存在的 Linux 系统功能,不存在的零售吉祥物,以及没有意义的技术细节。
最近,《华盛顿邮报》报道了一位法律教授,他发现 ChatGPT 将他列入了一份对某人进行过性骚扰的法律学者名单。但这完全是 ChatGPT 编造的。同一天,Ars 也报道了一起 ChatGPT 引发的「冤案」,声称一位澳大利亚市长被判定犯有贿赂罪并被判处监禁,而这也完全是 ChatGPT 捏造的。
整出这么多「活」之后,人们不禁好奇,为什么 AI 会出现「幻觉」?
02「幻觉」=「创造」?
根据 AI 软件开发专家的建议,「思考 AI 幻觉的最好方法,是思考大型语言模型(LLMs)的本质。」
本质上来说,大型语言模型(LLMs)的设计,仅仅是基于语言的「统计概率」,完全没有「现实世界的经验。」
而且,它们接受的是「无监督学习(unsuper【【微信】】)」的训练,这意味着它的的原始数据集中没有任何东西可以将事实与虚构分开。这就导致了,它们不知道什么是正确的,什么是不正确的;不理解语言所描述的基本现实,也不受其输出的逻辑推理规则的约束。
因此,它们生成的文本在语法上、语义上都很好,但它们除了与「提示(prompt)」保持「统计学」上的一致性外,并没有真正的意义。
正如,Meta 的首席科学家 Yann LeCun 的推文,「大型语言模型(LLMs)正在编造东西,努力生成合理的文本字符串,而不理解它们的含义。」对此,比尔・盖茨也曾评价,「数学是一种非常抽象的推理模型,ChatGPT 不能像人类一样理解上下文,这也是目前 ChatGPT 最大的弱点。」
因此,从这个角度来看,是 AI 模型设计的根本缺陷导致了「幻觉」。
此外,AI 领域的研究还表明,除了设计理念,AI 模型的训练数据集的限制也会导致「幻觉」,主要包括特定数据的「缺失」,和「压缩」。
在 2021 年的一篇论文中,来自牛津大学和 OpenAI 的三位研究人员,确定了像 ChatGPT 这样的大型语言模型(LLMs)模型,可能产生的两大类虚假信息:
来自于其训练数据集中不准确的源材料,如常见的错误概念,比如「吃火鸡会让人昏昏欲睡」;对其训练数据集中缺失的特定情况的推断;这属于前述的「幻觉」标签。
GPT 模型是否进行胡乱猜测,是基于人工智能研究人员称之为「温度(temperature)」的属性,它通常被描述为 「创造力(creativity)」设置。
如果「创造力」设置得高,模型就会胡乱猜测,产生「幻觉」;如果设置得低,它就会按图索骥,根据其数据集,给出确定的答案。
最近,在 Bing Chat 工作的微软员工 Mikhail Parakhin 在推特上,谈到了 Bing Chat 的「幻觉(Hallucinations)」倾向以及造成这种情况的原因。
他写道:「幻觉=创造力,它试图利用它所掌握的所有数据,产生最连贯的语句,不论对错。」他还补充,「那些疯狂的创造是 LLM 模型有趣的原因。如果你钳制这种创造力或者说是幻觉,模型会变得超级无聊,它会总是回答『我不知道』,或者只读搜索结果中存在的内容。」
图片来源:Ultimate.ai
因此,在对 ChatGPT 这样的语言模型进行微调时,平衡其创造性和准确性无疑是一个持续的挑战。一方面,给出创造性答案的能力,是 ChatGPT 成为强大的「灵感」工具的原因。这也使模型更加人性化。另一方面,如果要帮助 ChatGPT 产生可靠的信息时,保证原始数据的准确性是至关重要的。
除了 AI 模型「创造力」的设置之外,数据集的「压缩」问题也会导致「幻觉」的出现。
这是因为,在训练过程中,虽然 GPT-3 考虑了 PB(petabytes)级的信息,但得到的神经网络的大小只是其中的一小部分。在一篇被广泛阅读的《纽约客》文章中,作者 Ted Chiang 称这是「网络中模糊的 JPEG」。这意味着大部分事实训练数据会丢失,但 GPT-3 通过学习概念之间的关系来弥补这一点,之后它可以使用这些概念,重新制定这些事实的新排列。
当然,如果它不知道答案,它也会给出它最好的「猜测。」这就像一个记忆力有缺陷的人,凭着对某件事情的直觉来工作一样,有时不可避免地会把事情弄错。
除了上述的客观原因,我们还不能忽视主观的「提示(prompt)」在「幻觉」中的作用。
在某些方面,ChatGPT 就像一面镜子:你给它什么,它就会给你什么。如果你给它提供虚假的信息,它就会倾向于同意你的观点,并沿着这些思路「思考」。而且,ChatGPT 是概率性的,它在本质上是部分随机的。
这就意味着,如果你突然改变聊天主题,而又没有及时提供新的「提示(prompt)」,ChatGPT 就很可能会出现「幻觉」。
03 如何减少 AI 的「幻觉」
「幻觉」的出现似乎是不可避免的,但所幸,是 AI 在推理中产生的「幻觉」绝非「无药可救」。
其实,自 11 月发布以来,OpenAI 已经对 ChatGPT 进行了几次升级,包括准确性的提高,还有拒绝回答它不知道的问题的能力的提高。
OpenAI 计划如何使 ChatGPT 更加准确呢?
A. 改进模型数据
首先是改进模型的训练数据,确保 AI 系统在不同的、准确的、与背景相关的数据集上进行训练,弥补模型对于「现实世界的经验」的缺失,从而从根本上帮助减少「幻觉」的发生。
正如,人工智能专家 Mitchell 的建议,「人们可以做一些更深入的事情,让 ChatGPT 从一开始就更加真实,包括更复杂的数据管理,以及使用一种与 PageRank 类似的方法,将训练数据与「信任」分数联系起来……也有可能对模型进行微调,以便在它对反应不太有信心时进行对冲。」
实际的解决方案,在很大程度上取决于具体的 AI 模型。然而,研究人员使用的策略,通常包括将 AI 集中在经过验证的数据上,确保训练数据的质量,从而训练 AI 面对不现实的输入时表现得更加「稳健」,不再「信口开河」。
B. 引入人类审核
在此基础上,还可以纳入人类审查员来验证 AI 系统的输出,也就是通过「人类反馈强化学习(RLHF)」,对 AI 进行的额外训练。
这是 OpenAI 正在使用的技术,官方的描述是「我们现在雇人来教我们的神经网络如何行动,教 ChatGPT 如何行动。你只要和它互动,它就会根据你的反应,推断出,这是不是你想要的。如果你对它的输出不满意,那下次应该做一些不同的事情。」
RLHF 原理图|图片来源:【【网址】】
简而言之,「人类反馈强化学习(RLHF)」就是通过改进人类反馈步骤中的后续强化学习,让 AI 意识到自己何时在编造事情,并进行相应的调整,从而教会它不要产生「幻觉」。
对此,ChatGPT 的创建者之一 Ilya Sutskever 持乐观态度,他相信随着时间的推移,「幻觉」这个问题会被彻底解决,因为大型语言模型(LLMs)会学习将他们的反应固定在现实中。
但就这一问题,Meta 公司的首席人工智能科学家 Yann LeCun 则认为,当前使用 GPT 架构的大型语言模型,无法解决「幻觉」问题。
C. 外部知识增强
除此之外,检索增强(retrie【【微信】】)也可以使 ChatGPT 更加准确。
检索增强(retrie【【微信】】)是提高大型语言模型(LLMs)事实性的方法之一,也就是向模型提供外部文件作为来源和支持背景。研究人员希望通过这种技术,教会模型使用像谷歌这样的外部搜索引擎,「像人类研究人员那样在他们的答案中引用可靠的来源,并减少对模型训练期间学到的不可靠的事实性知识的依赖。」
Bing Chat 和 Google Bard 已经通过引入「网络搜索」做到了这一点。相信很快,支持浏览器的 ChatGPT 版本也将如此。此外,ChatGPT 插件旨在用它从外部来源,如网络和专门的数据库,检索的信息来补充 GPT-4 的训练数据。这种补充就类似于一个能接触到百科全书的人,会比没有百科全书的人在事实方面更为准确。
D. 增加模型透明度
此外,增加模型的透明度也是减少「幻觉」必要的措施。
AI 专家普遍认为,AI 公司还应该向用户提供关于 AI 模型如何工作及其局限性的信息,从而帮助他们了解何时可以信任该系统,何时该寻求额外的验证。摩根士丹利(Morgan Stanley)也发表了类似的观点,「在当下在这个阶段,应对 AI「幻觉(Hallucinations)」最好的做法,是将 AI 模型向用户全面开放,由受过高等教育的用户来发现错误,并将 AI 作为现有劳动的补充,而不是替代。」
也许,「幻觉」只是 AI 发展路上的一个小插曲,但它提醒我们必须保持警惕,确保我们的技术为我们服务,而不是把我们引入歧途。








