庆云古诗词

庆云古诗词

ChatGPT相关技术必读论文100篇(第1-50篇)

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt怎么读

为了写本ChatGPT笔记,过去两个月翻了大量中英文资料/paper(中间一度花了大量时间去深入RL),大部分时间读的更多是中文资料

2月最后几天读的更多是英文paper,正是2月底这最后几天对ChatGPT背后技术原理的研究才真正进入状态(后还组建了一个“ChatGPT之100篇论文阅读组”,我和10来位博士、业界大佬从23年2.27日起100天读完ChatGPT相关技术的100篇论文),当然 还在不断深入,由此而感慨:

读的论文越多,你会发现大部分人对ChatGPT的技术解读都是不够准确或全面的,毕竟很多人没有那个工作需要或研究需要,去深入了解各种细节。

插播一句:

七月在线新上线了《ChatGPT技术原理解析小课》

本课带你一步一步深入理解ChatGPT背后的技术原理、技术细节,加入大量实践内容,比如各个类ChatGPT开源项目的实现、训练、部署、微调等。

上线一周报名人数直冲500,群里已经开始讨论部署、微调等,本周起七月在线校长July,会群内分享他最新研究心得。

↓↓↓扫码抢购↓↓↓

(ChatGPT技术原理解析小课二维码)

购课后记得进QQ群哈

因为100天100篇这个任务,让自己有史以来一篇一篇一行一行读100篇,之前看的比较散,不系统,抠的也不细,比如回顾“Attention is all you need”这篇后,对优化博客内的Transformer笔记便有了很多心得。

总之,读的论文越多,博客内相关笔记的质量将飞速提升 自己的技术研究能力也能有巨大飞跃,且考虑到为避免上篇文章篇幅太长而影响完读率,故把这100篇论文的清单抽取出来分享给大家

  1. 【【淘密令】】,Transformer原始论文

  2. GPT:Impro【【微信】】nding by Generative Pre-Training

    GPT2:Language Models are Unsuper【【微信】】rs

  3. GPT3原始论文:Language Models are Few-Shot Learners

  4. ICL原始论文

  5. E【【微信】】ge Models Trained on Code,Codex原始论文

    预测当前序列的最后一个词时 可以选取概率最大的词(softmax最高的值),但没法全局最优且不具备多样性,当然 可以使用束搜索 一次性获取多个解

    论文中用的是核采样,预测的各个词根据概率从大到小排序,选取前些个概率加起来为95%的词

  6. CoT原始论文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    28 Jan 2022 ・ Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, 【【微信】】, Denny Zhou

    也从侧面印证,instructGPT从22年1月份之前 就开始迭代了

  7. Training language models to follow instructions with human feedback

    InstructGPT原始论文

  8. RLHF原始论文

  9. PPO原始论文

  10. Large Language Models are Zero-Shot Reasoners

    来自东京大学和谷歌的工作,关于预训练大型语言模型的推理能力的探究,“Let's think step by step”的梗即来源于此篇论文

  11. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

    19年10月,Google发布T5模型(transfer text to text transformer),虽也基于transformer,但区别于BERT的编码器架构与GPT的解码器架构,T5是transformer的encoder-decoder架构,这是解读之一 的

    用的750G的训练数据,其训练方法则为:BERT-style的MASK法/replace span(小段替换)/Drop法,以及类似BERT对文本的15%做破坏、且replace span时对3的小段破坏

  12. LaMDA: Language Models for Dialog Applications, 这是简要解读之一

    21年5月,Google对外宣布内部正在研发对话模型LaMDA,基于transformer decoder架构,在微调阶段 使用58K的对话数据,过程类似真人的对话过程,给定一个Query,比如 【【微信】】? ,如果人知道答案,那么直接回答35岁即可,如果不知道,则需要去 Research 一下,借助搜索引擎找到答案,然后再回答35岁

  13. 《Finetuned Language Models Are Zero-Shot Learners》

    21年9月,Google提出FLAN大模型,其基于LaMDA-PT做Instruction Fine-Tuning

    FLAN is the instruction-tuned version of LaMDA-PT

  14. PaLM: Scaling Language Modeling with Pathways

    22年3月,Google的Barham等人发布了Pathways系统,用于更高效地训练大型模型

    Pathways 的愿景 ―― 一个很接近人脑的框架:一个模型,可以做多任务,多模态

    且在做任务时,只是 sparsely activated,只使用一部分的参数

    22年4月,Google发布PaLM模型,基于Transformer decoder架构,参数规模最大的版本达到惊人的5400亿参数(8B 62B 540B),使用multi-query注意力、【【微信】】激活函数以及RoPE位置嵌入,这是翻译之一

    且在每个Transformer块中使用 "平行 "表述(Wang & Komatsuzaki,2021)

    是Google的Pathways架构或OpenAI GPT2/3提出的小样本学习的进一步扩展

    PaLM首次展示了Pathways的大规模使用――能够以高效的方式在数千或数万个加速器芯片上训练一个模型

    具体来说,通过Pathways,PaLM 540B在两个通过数据中心网络连接的TPU v4 Pod上训练,使用模型和数据并行的组合,在每个Pod中使用3072个TPU v4芯片,连接到768台主机,能够有效地将训练扩展到6144个芯片,而不需要使用任何pipeline并行,其效率水平是以前这种规模的模型所不能达到的

    以前的大多数大型语言模型

    要么是在单个TPU系统上训练的(比如GLaM by Du等人2021年,LaMDA by Thopilan等人)

    要么是使用由Huang等人在2019年提出的pipeline并行,从而在GPU集群(【【微信】】0B by Smith等人2022年),或多个TPU v3 pod(【【微信】】等人2021年)上扩展,最大规模为4096个TPU v3芯片

    另,在自然语言、代码和数学推理等任务中表现的都很不错

    此外,预训练数据集由一个7800亿个token组成的语料库,该数据集是由过滤过的网页(占比27%)、书籍(占比13%)、Wikipedia(占比4%)、新闻文章(占比1%)、Github源代码(占比5%,包括Java、HTML、【【微信】】、Python、PHP、C#、XML、C++和C,总计196GB的源代码),和社交媒体对话(占比50%)组成的,这个数据集是也用于训练LaMDA和GLaM

  15. Emergent Abilities of Large Language Models

    Google 22年8月份发的,探讨大语言模型的涌现能力

  16. Scaling Instruction-Finetuned Language Models,Flan-T5(2022年10月)

    从三个方面改变指令微调,一是改变模型参数,提升到了540B,二是增加到了1836个微调任务,三是加上【【微信】】微调的数据

  17. Multimodal Chain-of-Thought Reasoning in Language Models

    23年2月,亚马逊的研究者则在这篇论文里提出了基于多模态思维链技术改进语言模型复杂推理能力的思

  18. LLaMA: Open and Efficient Foundation Language Models,2023年2月24日Meta发布了全新的650亿参数大语言模型LLaMA,开源,大部分任务的效果好于2020年的GPT-3

    这是针对该论文的解读之一

  19. Language Is Not All You Need: Aligning Perception with Language Models,微软23年3月1日发布的多模态大语言模型Kosmos-1的论文

  20. PaLM-E: An Embodied Multimodal Language Model(论文地址),Google于23年3月6日发布的关于多模态LLM:PaLM-E,可让能听懂人类指令且具备视觉能力的机器人干活

  21. 【【微信】】alking, Drawing and Editing with 【【微信】】ls,微软于23年3月8日推出【【微信】】(另,3.9日微软德国CTO说,将提供多模态能力的GPT4即将一周后发布)

    At the same time, 【【微信】】ls, such as 【【微信】】 Stable Diffusion, although showing great 【【微信】】nd generation capabilities, they are only experts on specific tasks with one round fixed inputs and outputs.

    To this end, We build a system called {【【微信】】}, incorporating different 【【微信】】ls, to enable the user to interact with ChatGPT by

    1) sending and recei【【微信】】 but also images

    2) pro【【微信】】uestions or visual editing instructions that re【【微信】】f multiple AI models with multi-steps.

    3) pro【【微信】】ing for corrected results.

    We design a series of prompts to inject the 【【微信】】on into ChatGPT, considering models of multiple inputs/outputs and models that require visual feedback

  22. A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT:https://arxiv.org/pdf/2302.09419,预训练基础模型的演变史

  23. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

  24. Pre-train, Prompt, and Predict: A Systematic Sur【【微信】】s in Natural Language Processing,作者来自CMU的刘鹏飞,这是相关资源

    另一篇类似的,Pre-Trained Models: Past, Present and Future

  25. Offsite-Tuning: Transfer Learning without Full Model

    对于许多的私有基础模型,数据所有者必须与模型所有者分享他们的数据以微调模型,这是非常昂贵的,并引起了隐私问题(双向的,一个怕泄露模型,一个怕泄露数据)

  26. 《The Natural Language Decathlon:Multitask Learning as 【【微信】】》,GPT-1、GPT-2论文的引用文献,Salesforce发表的一篇文章,写出了多任务单模型的根本思想

  27. Deep Residual Learning for Image Recognition,ResNet论文,短短9页,Google学术被引现15万多

    这是李沐针对ResNet的解读,另 这是李沐针对一些paper的解读列表

  28. End-to-End Object Detection with Transformers

    DETR by 2020年5月,这是针对DETR的解读之一

    回顾下20年之前的模型提出史(我18年写过一篇:一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD)

    2014 R- CNN

    2015 Fast R-CNN、Faster R-CNN

    2016 YOLO、SSD

    2017 Mask R-CNN、YOLOv2

    2018 YOLOv3

    2019 CenterNet

    2020 DETR

    20年之后,CV迎来了生成式下的多模态时代

    2020年

    6月 DDPM

    10月 DDIM、【【微信】】

    2021年

    1月 CLIP、DALL・E

    3月 Swin Transformer

    11月 MAE、Swin Transformer V2

    2022年

    1月 BLIP

    4月 DALL・E 2

    8月 Stable Diffusion、BEiT-3

    2023年

    1月 BLIP2

    3月 【【微信】】、GPT-4

  29. AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE

    发表于2020年10月的【【微信】】原始论文,代表Transformer正式杀入CV界

  30. Swin Transformer: Hierarchical 【【微信】】 using Shifted Windows,发表于21年3月

    Swin Transformer V2: 【【微信】】 Resolution

    第一篇的解读戳这,第二篇的解读戳这里

  31. Auto-Encoding 【【微信】】,苏剑林关于VAE的解读之一

    WGAN

  32. Denoising Diffusion Probabilistic Models,2020年6月提出DDPM,即众人口中常说的diffusion model

    这是苏剑林关于DDPM的相对通俗的系列解读,这是另一份解读:What are Diffusion Models?(该解读的中文笔记)

  33. CLIP: Connecting Text and Images - OpenAI,这是针对CLIP论文的解读之一

    CLIP由OpenAI在2021年1月发布,超大规模模型预训练提取视觉特征,图片和文本之间的对比学习(简单粗暴理解就是发微博/朋友圈时,人喜欢发一段文字然后再配一张或几张图,CLIP便是学习这种对应关系)

    2021年10月,Accomplice发布的disco diffusion,便是第一个结合CLIP模型和diffusion模型的AI开源绘画工具,其内核便是采用的CLIP引导扩散模型(CLIP-Guided diffusion model)

    且后续有很多基于CLIP的一系列改进模型,比如Lseg、GroupViT、ViLD、GLIP

  34. Hierarchical Text-Conditional Image Generation with CLIP Latents,这是解读之一

    DALL・E 2论文2022年4月发布(至于第一代发布于2021年初),通过CLIP + Diffusion models,达到文本生成图像新高度

  35. High-Resolution Image Synthesis with Latent Diffusion Models

    2022年8月发布的Stable Diffusion基于Latent Diffusion Models,专门用于文图生成任务

    这些是相关解读:图解stable diffusion(翻译版之一)、这是另一解读,这里有篇AI绘画发展史的总结

    Stable Diffusion和之前的Diffusion扩散化模型相比, 重点是做了一件事, 那就是把模型的计算空间,从像素空间经过数学变换,在尽可能保留细节信息的情况下降维到一个称之为潜空间(Latent Space)的低维空间里,然后再进行繁重的模型训练和图像生成计算

  36. BLIP (from Salesforce) released with the paper BLIP: Bootstrapping Language-Image Pre-training for Unified 【【微信】】standing and Generation by Junnan Li, Dongxu Li, Caiming Xiong, Ste【【微信】】.

  37. BLIP-2 (from Salesforce) released with the paper BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models by Junnan Li, Dongxu Li, Sil【【微信】】, Ste【【微信】】.

  38. Image as a Foreign Language: BEIT Pretraining for All 【【微信】】e Tasks,这是针对该论文的解读之一

    2022年8月,微软提出的多模态预训练模型BEiT-3

    BEiT: BERT Pre-Training of Image Transformers

    BEiT-2: Masked Image Modeling with 【【微信】】al Tokenizers

  39. Aligning Text-to-Image Models using Human Feedback,这是解读之一

    ChatGPT的主要成功要归结于采用RLHF来精调LLM,近日谷歌AI团队将类似的思路用于文生图大模型:基于人类反馈(Human Feedback)来精调Stable Diffusion模型来提升生成效果

    目前的文生图模型虽然已经能够取得比较好的图像生成效果,但是很多时候往往难以生成与输入文本精确匹配的图像,特别是在组合图像生成方面。为此,谷歌最新的论文提出了基于人类反馈的三步精调方法来改善这个问题

  40. SELF-INSTRUCT: Aligning Language Model with Self Generated Instructions,代码地址,解读1、解读2

    3月中旬,斯坦福发布Alpaca:只花100美元,人人都可微调Meta家70亿参数的LLaMA大模型

    而斯坦福团队微调LLaMA的方法,便是来自华盛顿大学Yizhong Wang等去年底提出的这个Self-Instruct

    具体而言,论文中提出,首先从自生成指令种子集中的175个人工编写的「指令-输出」对开始,然后,提示text-da【【微信】】使用种子集作为上下文示例来生成更多指令

    而斯坦福版Alpaca,就是花了不到500美元使用OpenAI API生成了5.2万个这样的示例微调LLaMA搞出来的

  41. Constitutional AI: Harmlessness from AI Feedback

    OpenAI之前一副总裁离职搞了个ChatGPT的竞品,ChatGPT用人类偏好训练RM再RL(即RLHF),Claude则基于AI偏好模型训练RM再RL(即RLAIF)

  42. Impro【【微信】】gue agents via targeted human judgements

    DeepMind的Sparrow,这个工作发表时间稍晚于instructGPT,其大致的技术思路和框架与 instructGPT 的三阶段基本类似,但Sparrow 中把奖励模型分为两个不同 RM 的思路

  43. Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers代码地址,这篇文章则将ICL看作是一种隐式的Fine-tuning

  44. WHAT LEARNING ALGORITHM IS IN-CONTEXT LEARNING? IN【【微信】】AR MODELS

  45. Meta-learning 【【微信】】ontext Tuning

  46. Large language models are zero-shot reasoners. arXi【【微信】】:2205.11916, 2022

  47. Transformer-XL: Attenti【【微信】】nd a fixed-length context

  48. Tensor programs v: 【【微信】】works via zero-shot hyperparameter transfer. arXi【【微信】】:2203.03466, 2022

  49. Opt: Open pre-trained transformer language models. arXi【【微信】】:2205.01068, 2022

  50. Language models are unsuper【【微信】】rs. 2019

    该清单会持续更新,敬请关注~

新课上线

七月在线新课《ChatGPT技术原理解析小课》

上线一周报名人数直冲500了,群里已经开始讨论部署、微调等了,本周起七月在线校长July,会群内分享他最新研究心得。

本课带你一步一步深入理解ChatGPT背后的技术原理、技术细节,加入大量实践内容


ChatGPT操作需要学习吗 使用chatgpt要注意哪些问题

chatgpt,chatgpt4.0,chatgpt怎么下载,chatgpt是哪个国家的

ChatGPT其实有很多种使用方式,而且不同的使用方式带来的效果和体验是不一样的。本文作者从产品经理的视角,介绍了ChatGPT的几种使用方法,并对其中的一些踩坑点进行了解答,一起来看一下吧。

在去年12月的时候我就尝鲜注册过ChatGPT,体验之后发现有一些功能非常的棒,于是就写了一篇产品面试的文章“当ChatGPT来面试产品经理岗,我会给它发Offer吗?”

然后在2023年2月之后,ChatGPT突然就迎来了一波小高峰,网络上铺天盖地的消息,各种知识博主都把握了这一波热点,大家各显神通,开发程序的,做课程的,做教程的,做知识星球的,一下子就涌出来了,反正是谁也不想错过这一波的机遇。

站在现在这个时间点写下这篇文章,是因为我发现当时对它的认知还是太浅了,同时也对市场和用户的一些产品洞察力不足,所以那个时候一直没有静下来去慢慢琢磨和思考它的一些场景和价值等。

既然知道了自己当时的判断是错误的,那么我自然得要痛定思痛,改过自新,赶紧学习,拉开差距了。

于是,我花了2天左右时间去看网上的教程,并亲自实操,最后以一个产品经理的视角总结了这一篇文章。

当然,也不是说本文就只适用于产品经理,它还是所有人通用的,只不过我的受众更多的是产品经理而已。

本文行文结构

先来看看ChatGPT的回答,感觉是一个万金油的回答,听起来很牛逼,但是我并不知道要怎么使用它。

这里我补充一些自己的观点,尽量用接地气的方式给大家介绍一下。

  1. ChatGPT确实很强大,它的强大是大家有目共睹的,而且未来它会更加强大。作为一个产品经理了解怎么使用它,对我们来说百利无一害;
  2. 日常工作中我们经常需要检索很多信息,ChatGPT可以作为搜索引擎的一个补充工具,帮助我们检索很多信息,让我们快速获取想要的答案;
  3. ChatGPT可以提供一些新的想法、方案和建议,这些东西我们作为个体是很有限的,但是它是大语言模型,只要背后的数据量足够大,那它就会有很多丰富的想法和方案;
  4. 一些自动化的任务ChatGPT可以很好地完成,例如会议纪要中的重点和大纲整理,一些有规律的数据整理成表格,自动生成一些报告文档等;
  5. 市面上太多人云亦云的消息,而且很多消息的真伪都不确定,自己花点时间了解和掌握它,可以避免被这些消息带偏或者避免被鼓吹的很焦虑;

ChatGPT实际上有很多种使用方式,而且不同的使用方式带来的效果和体验都是不一样的。很多人觉得官方的对话网站很卡,登录不上去,感觉ChatGPT一点都不好用之类的,很有可能是没掌握到合适的使用方式。

大多数人使用ChatGPT都是用的官方对话网站,即【【网址】】这个网站。

使用官方的对话网站,好处就是简单,注册好了账号之后,然后登录之后即可使用。

但是坏处也有点明显,第一是因为最近ChatGPT的用户越来越多了,所以会发现偶尔会出现登录不上去的情况,提示各种异常;第二是也是因为用户量过多,对话的稳定性不高,很多时候一些消息发着发着就出问题了。

3月份的时候OpenAI推出了ChatGPT Plus的服务,也就是用户花20美金/月订阅之后,就可以原来的官方对话网站上升级为ChatGPT Plus,而Plus的优势刚好就解决了普通版本的一些痛点。

例如Plus的模型支持最新的GPT-4.0,Plus的稳定性非常好,不容易掉线,也不容易出现一些奇怪的异常。

ChatGPT Plus

和第1种的普通版相比,升级为了ChatGPT Plus之后几乎可以说是体验最好的了,如果硬要说缺点的话,一个月20美金实在是太贵了,加上一些充值的摩擦成本,可能一个月大概要150-160元人民币了。

由于访问ChatGPT对网络有特殊要求,再加上注册的门槛很高,使用的门槛很高,阻碍了很多想要尝鲜的用户。于是乎就会有很多国内的开发者或者企业,会搭建所谓的“镜像”网站,提供给国内的用户使用,大大降低了国内用户的使用门槛。

这些镜像网站,大多数都是对接了OpenAI的开放接口,然后自己做了一些配置的调整。如果接口对接的好,同时一些配置功能做得完善的话,确实可以达到媲美原版网站的对话效果。

语雀上摘录的ChatGPT资源汇总

这种方式的优点就是降低了使用者的门槛,不对网络有要求,不需要注册账号,直接上手就能用。缺点呢,也是有的,镜像网站背后对接了OpenAI的接口,这些接口的调用都是要收费的,如果用户量不是很大,那么费用就不会太高,如果用户量很大了费用就很高了。所以开发者,要么对单个用户限流,一天最多使用多次;要么对用户收费,弥补自己的支出。

这类网站对我来说还有一个小小的缺点,就是域名不够有代表性,不太好记忆,基本上就很难记得住,而且李逵,李鬼很多,让我感觉不太值得信赖。

上面提到了开发者对接了OpenAI的接口之后,如果直接提供给用户去使用的话,自己的成本太高了。于是就有开发者换了一个思路,既然我自己提供API Key成本很高,那就用户你自己提供API Key就好了,反正注册ChatGPT的时候每个人都用了18美金或者5美金,肯定是够用的。

开发者完成相应的接口对接,然后将API Key的配置权限交给用户,让用户去填入自己的API Key,调用的费用也是用户自己支付。而且注册时候刚好赠送了调用的费用,相当于可以白嫖。

ChatBox需要配置API密钥使用

川虎ChatGPT也可以自己配置API Key

使用这一类客户端搭配API Key可以达到不错的用户体验效果,而且有一些数据存在本地的,不用担心数据泄露的问题。如果硬要说这种方式的缺点的话,我觉得有两个:

  1. 可能有一些朋友不太习惯去下载一个新的客户端,觉得太麻烦了;
  2. 第三方客户端也是依赖于开发者的水平,如果开发者把功能做完善了还好,如果没做完善可能在早期的版本会有比较多的Bug;

如果只是为了体验AI,为了体验ChatGPT的魅力,也可以考虑使用一些内置了GPT模型的工具或者平台。例如必应的New Bing就是内置了GPT4.0的模型,而且对网络要求也不高,注册的门槛也很低,使用起来就很方便。

【【网址】】/new

除了Nen Bing之外,还有Poe也可以支持ChatGPT的对话。Poe是问答网站Quora发布的一款产品,类似于ChatGPT一样可以进行对话聊天,内置ChatGPT 3.5模型和4.0模板(每天调用次数有限)。

Poe的由来

【【网址】】

除了以上两个,其实很多国外大厂们都在快速响应接入GPT,基本的用法都是大差不差的,例如Instacart、Shopify、Snap、【【微信】】等都说自己接入了,感兴趣的朋友可以自己去查询一下。

以上5种使用ChatGPT的方式,我最推荐的是第4种,也就是用“API Key”搭配开源的客户端进行使用,原因如下:

  1. 对网络要求没有那么高,不会出现那么多的异常或者失败的情况;
  2. 随着大家使用客户端的次数越来越多,客户端的功能会越做越好,目前我推荐的Chatbox体验就很好了,比官网多了很多人性化的东西;
  3. API Key这个东西可以小范围地传播,用户不一定要自己去注册了。一个OpenAI的账号,可以免费生成5个API Key,然后一个API Key应该也可以多个人同时使用,只需要确保账户中的余额可用即可;
  4. 就个人而言,我会比较喜欢用客户端,因为可以常驻后台,需要用的时候就打开,比浏览器网页要方便。而且有一些其他的工具也可以支持API Key的绑定,例如我用的启动器Hapigo就可以绑定API Key,然后使用GPT的翻译功能,效果也还不错;

首先,我们先要了解一下ChatGPT和OpenAI是什么?以下内容是ChatGPT生成的。

OpenAI 是一个致力于开发人工智能(AI)的研究实验室和公司。它的目标是确保人工智能技术能够普及并造福全人类。OpenAI 成立于2015年,由Elon Musk、Sam Altman等人联合创立。它的一个主要项目是开发自然语言处理(NLP)模型,比如 GPT 系列(即生成式预训练 Transformer)。

ChatGPT 是基于 OpenAI 开发的 GPT 系列架构的一个具体应用。ChatGPT 是一个强大的语言生成模型,可以理解和生成人类语言。它常用于对话系统、智能助手、自动摘要、翻译等各种任务。简而言之,OpenAI 是一个研究实验室和公司,而 ChatGPT 是该公司开发的一个基于 GPT 系列的语言处理应用。

OpenAI是一家开发人工智能的公司,然后旗下会有很多款产品,ChatGPT只是其中一款。OpenAI的API接口是通用的,可以用于不同的产品,只不过目前最火的就是ChatGPT这个产品而已。

之前用户注册了ChatGPT之后,会赠送18美金的体验金。因为调用API会按量付费,所以这18美元就是赠送给用户去体验、尝试用的。后面随着注册的人数越来越多,赠送的体验金变成了5美金,从4月1日开始一些注册用户就不送体验金了,应该是风控规则升级了。

我周六的时候花了几个小时去看了一些教程,然后实操了一波怎么去升级Plus,最后千辛万苦之后总算是搞完了。

我先抛出一下个人的结论:非重度用户,别升级Plus,不值得。

Plus的新特性并不算多,我升级之后甚至产生了一种不太值得的感觉。因为我不是一个深度用户,20美金/月的服务费带来差异化服务并不算太多,基本上可以说是“毫无性价比”可言的。

如果你问我,怎么样才算是深度用户?

那我会告诉你,如果你都不知道自己是不是深度用户,那么你大概率就不是深度用户。虽然Plus可以体验4.0的模型,可以有更稳定的访问体验,更快地回答速度。但是这些体验如果你不是高频使用,一个月20美金的月租实在是太高了。

升级Plus太麻烦了,需要注册虚拟信用卡,然后要用交易所USDT转为USD等,摩擦成本也很高,不太值得。最近还有一些消息指出,OpenAI在大量封号,如果自己前脚就升级为Plus会员,后脚就封号了,直接血亏。

最后再补充下,我当时是以为升级了Plus之后,然后OpenAI的API也会自动升级为Plus,可以使用4.0的模型,但实际上这两者不相关。如果想要使用4.0的API,则需要在官网加入【【微信】】,然后慢慢排队去吧。

专栏作家

维他命(【【微信】】),微信公众号:PM维他命,人人都是产品经理专栏作家。前PHPer,做过在线教育类产品,也做过5年多的跨境供应链方向的产品,现任某跨境电商ERP的产品负责人。主要专注于WMS/OMS/TMS/BMS/ERP等领域,分享跨境和供应链相关的产品知识。

本文原创发布于人人都是产品经理,未经作者许可,禁止转载。

题图来自Unsplash,基于 CC0 协议。

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。