庆云古诗词

庆云古诗词

从chatgpt迈向人工智能之旅 如何拥抱chatgpt带来的ai浪潮

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

从chatGPT看AI,从ChatGPT的文学评论看机器文本的生成机制,从ChatGPT,从ChatGPT看教育面向人工智能的机遇、挑战与应对

本文首发微信公众号:飞总聊IT

毫无疑问,伴随着GPT-4的正式官宣,微软整合了GPT-4进入其全线产品。可以说,这将是影响我们未来很多年的一次大变革。所以百度也发布了自己的通用大模型文心一言。

这次的AI革命才刚刚开始,其影响就已经非常的可怕了。不信,您可以看看微软发布的chatgpt的视频宣传。

今天我们来探讨普通人如何在chatgpt浪潮中获取利润。

最基本的操作是,我们知道OpenAI不对中国IP开放,因此想要接触chatgpt,拥有一个OpenAI账号是必不可少的。因此,为大家提供账号注册服务是一项明显的商机。

现在淘宝上提供许多chatgpt账号出售的业务。一般而言,独立账号需要拥有一个电话号码才能注册,这并不是一项无本生意。

对于想要靠这个赚钱的人们,你们需要考虑自己的注册成本,尤其是电话号码的成本。

对于想要购买账号并利用chatgpt做更多事情的个人和创业者,我要特别提醒的是,如果你看到网上出售的价格特别便宜,你需要确定这是否是一个共享账号,即号主将账号出售给许多人共同使用。

这种账号容易被封,也不利于后续内容创作的版权保护,因此只适合娱乐使用。

除了账号,还有如何教别人使用OpenAI和New Bing。关于这方面的知识,我认为有经验的人肯定很清楚。

当然,chatgpt的应用不仅仅限于此。我们可以讨论如何利用chatgpt实现其他目标。

chatgpt非常擅长修改代码,或根据需求编写代码。最简单的应用是帮助各位程序员解决一些实际问题,比如将一种语言写的代码翻译成另一种语言。

但从赚钱的角度考虑,更实际的是如何利用chatgpt的功能,帮助更多人学习编写代码。

我知道,有些人利用chatgpt的编写代码功能编写了一套Python教程,其中的代码都是chatgpt帮忙编写的。而且,教程编写过程中也让chatgpt参与了很多实际工作。

因此,如果你从事教育行业,chatgpt可以方便地帮助你编写教程。

在此基础上,同样地,为职场和求职服务的提供者改简历是一项非常普遍的服务。在没有chatgpt之前,改简历确实是一项非常麻烦的事情。有了chatgpt,完全可以让chatgpt做一次加工,然后人再进行简单的修改即可。

翻译也是一个大的金矿。尽管过去机器翻译的质量已经相当不错,但仍然存在一些难以预料的问题。我亲自测试过chatgpt的翻译效果,无论是从英文到中文还是从中文到英文,都表现得非常可靠。

因此,无论从事翻译、海外留学中介或外贸工作,chatgpt都可以提供有效的帮助。

我们还可以将chatgpt应用到小说和其他创作领域,例如让它为您撰写大纲、完善细节等。此外,我们还可以利用chatgpt为各种社交媒体平台创建短视频内容。

你们猜一下,我这篇文章,是我自己写的,还是chatgpt写的?

此外,chatgpt还有很多高级玩法。例如,利用chatgpt开发智能客服系统,提供自动化的客户服务,并根据客户问题提供个性化的解决方案。

另外,chatgpt还可以帮助企业进行舆情监测和分析,识别和评估企业在社交媒体上的声誉和影响力,以及分析客户反馈和评论。

这些就不是普通人需要担心的了。但是谁叫我这个公众号里面很多都是程序员,有的还是创业者,公司高管,CEO呢。所以这些方向我也顺便提一下。

曹大的公众号刚发了一篇文章,说了一件非常有意思的事情:Web3,元宇宙炒得很凶的时候,资深程序员们都懒得搭理,chatgpt一出来,资深程序员们都打了鸡血一样。

谁是伪需求,谁是真革命,在资深程序员心目中,一目了然。

为了帮助有需要的人,结识有相同兴趣的人,共同探讨钻研如何使用chatgpt赚钱的问题,如何抓住这波人工智能发展浪潮,最近加入飞总的知识星球的人赠送OpenAI的账号,帮助大家顺利用上chatgpt。



python能接入chatgpt吗 印度尼西亚可以使用chatgpt吗

python 内连接,python接入api,python能写接口吗,python可以做接口吗

机器之心转载

作者:符尧

单位:Unichatgpt 钱。

但这里的问题是,不同的土壤对创新的鼓励程度是不一样的。在 OpenAI 刚创立的 2015 年,它的投资者们都相信 AGI ,即使当时看不到什么盈利的点。现在 GPT 做出来了,国内的投资者们也都信了 AGI,但相信的点或许也不一样:到底是信 AGI 能挣钱,还是信 AGI 能推动人类发展?

更进一步地,即使 OpenAI 就产生在这里,明天就出现,但他们跟微软达成的 deal,能否跟国内的云计算厂商达成呢?大模型的训练和推理都需要极大的成本,需要一个云计算引擎作为支撑。微软可以倾尽所有,让整个 Azure 给 OpenAI 打下手[4],这个换到国内,阿里云有可能给一个创业公司打下手吗?

组织架构很重要,只有尖端的人才和先进的组织架构才能推动智能的不断迭代与进化;但它同样需要跟所在的土壤做适配,寻找可以 flourish 的方法。

1.3 探索智能的极限

第三种答案是,要探索智能的极限。这是我听到的最好的答案。它远超刻舟求剑式的经典互联网产品思维,也看到了组织架构和尖端人才密度的重要性,并且更重要地是它看到了未来,看到了模型演化与产品迭代,思考着如何把最深刻,最困难的问题用最创新的方法来解决。

这就涉及到了思考大模型的极限思维。

二、极限思维

观察现在的 ChatGPT / GPT-3.5 ,它明显是一个中间状态,它还有很多显著可以加强,并且马上就能加强的点,包括:

更长的输入框:开始的时候,GPT 3.5 的上下文最长到八千个 token;现在的 ChatGPT 上下文建模的长度似乎已经过万。并且这个长度明显可以接着增长,在融入 efficient attention[5] 和 recursichatgpt[6] 的方法之后,context length 应该可以接着 scale 到十万,甚至百万的长度

更大的模型,更大的数据:模型的大小还没有到极限,MoE 可以接着把模型 scale 到 T 的量级[7];数据的大小还没有到极限,人类反馈的数据每天都在增长

多模态:在增加了多模态数据(音频,图片),特别是视频数据之后,总体与训练数据的大小可以再增大两个量级,这个可以让已知的能力接着按 scaling law 线性增加,同时还有可能继续出现新的涌现能力。比如可能模型在看过各种几何形状的图片,以及看过代数题之后,或许会自动学会做解析几何。

专业化:现有的模型在文科上大概相当于研究生水平,但在理科上相当于高中或大一大二的学生水平;已有的工作已经证明我们可以把模型的技能点从一个方向挪到另一个方向,这就意味着即使不做任何 scaling,我们依然可以在通过牺牲其他方面能力的情况下,把模型朝着目标方向推进。比如牺牲掉模型的理科能力,把它的文科能力从研究生推到专家教授的水准。

谁能做出中国版ChatGPT?怎么做? 图1

以上四点只是现阶段可以看到的,马上就可以加强但暂时还没有加强的点,随着时间的推移和模型的演化,会有更多可以被 scale 的维度进一步体现出来。这意味着我们需要有极限的思维,思考当我们把能够拉满的维度全部拉满的时候,模型会是什么样子。

2.1 能够拉满全部拉满

模型的输入框可以接着加长,模型的大小可以继续增大,模型的数据可以继续增多,多模态的数据可以融合,模型的专业化程度可以继续增高,所有这些维度可以继续往上拉,模型还没有到极限。极限是一个过程,在这个过程中模型的能力会怎样发展呢?

Log-linear 曲线:一部分能力的增长会遵循 log-linear 的曲线[8],比如说某项任务的 finetuning。随着 finetune 数据的指数增长,模型所对应的 finetune 的任务的能力会线性增长。这部分能力会可预测地变得更强

Phase change 曲线:一部分能力会随着 scaling 继续涌现[9],比如说上文中的模型做解析几何的例子。随着可以被拉满的维度被不断拉满,新的,难以预测的涌现能力会接着出现。

多项式曲线?当模型强到一定程度,与人类 align 到一定程度之后,或许一些能力的线性增长,所需要的数据,会突破指数增长的,而降低到多项式的量级。也就是说,当模型强到一定程度之后,它或许不需要指数级的数据,而是只需要多项式级的数据,就可以完成泛化。这可以从人类的专业学习中观察到:当一个人还不是领域专家的时候,ta 需要指数级的数据来学习领域的知识;当一个人已经是领域专家的时候了,ta 只需要很少量级的数据就自己迸发出新的灵感和知识。

所以,在极限思维下,把所有能拉满的维度全部拉满,模型注定会越来越强,出现越来越多的涌现能力。

2.2 反推中间过程

在思考清楚极限的过程之后,就可以从极限状态往后反推中间过程。比如说,如果我们希望增长输入框的大小:

如果希望把模型的输入框从千的量级增长到万的量级,可能只需要增加显卡数量,进行显存优化就能实现。

如果希望接着把输入框从万的量级增长到十万的量级,可能需要linear attention[10]

的方法,因为此时加显存应该也架不住 attention 运算量随输入框长度的二次增长。

如果希望接着把输入框从十万的量级增长到百万的量级,可能需要recursichatgpt?[11]的方法和增加chatgpt?[12]的方法,因为此时 linear attention 可能也架不住显存的增长。

以这种方式,我们可以反推不同阶段的 scaling 需要怎样的技术。以上分析不止适用于输入框的长度,也适用于其他因素的 scaling 的过程。

这样的话,我们可以得到清晰的从现阶段的技术到 scaling 的极限的每个中间阶段的技术路线图。

2.3 按模型演化进程产品化

模型在不断演化,但产品化不需要等到最终那个模型完成 ― 每当模型迭代出来一个大的版本,都可以产品化。以 OpenAI 的产品化过程为例:

2020 年,初代 GPT 3 训练完成,开放 OpenAI API[13]

2021 年,初代 Codex 训练完成,开放 Github Copilot[14]

2022 年,GPT-3.5 训练完成,以 dialog 数据 finetune 成 ChatGPT 然后发布

可以看到,在中间阶段的每一个重要版本,模型的能力都会增强,都存在产品化的机会。

更加重要的是,按照模型演化进程产品化,可以在产品化的阶段适配市场。学习 OpenAI 的组织架构来推进模型演化本身,但产品化可以按照本土市场的特征来。这种方式或许可以既学到 OpenAI 的先进经验,又避免水土不服的问题。

三、人工智能显著超过人类的点

到目前为止,我们讨论了要用模型演化的视角来分析模型,要用极限的思维讨论模型的演化历程。现阶段马上可以加强的点包括了输入框的长度,更大的模型和数据,多模态数据,和模型的专业化程度。现在让我们再把视野放得更长期些,思考在更大的时间和空间中,模型如何进一步地往极限推。我们讨论:

并行感知:一个人类研究员一次顺序地读四五篇已经是极限,但模型输入框变长之后,可以在极短的时间内并行阅读一百篇。这意味着,模型对外部信息的感知能力远超人类一个数量级。

记忆遗传:人类的演化过程中,子代只继承父代的基因,但不继承父代的记忆,这意味着每一次都需要重启一次;在模型的演化过程中,子代可以继承父代的记忆,并且这个继承的程度可控:我们可以设置子代继承 100%,50%,20% 的记忆,或清空记忆,这意味着父代的经验和技能可以不断累积

加速时间:人类相互交流的速率是受到人类说话的物理速度限制的,而模型相互交流的速率可以远快于人类,这意味着模型可以通过相互交流来解决人类数据随时间线性增长的问题;人类演化的过程受到物理时间的限制,模型的演化可以比人类的物理时间快上几个数量级,这意味着模型的进步速度可以远快于人类

无限生命:一个人的生命有限,百年之后终归尘土,但模型的权重只要不丢失,就可以不断地演化

从这些角度来说,人工智能超过人类并不是一件难以想象的事情。这就引发了下一个问题:如何驾驭远超人类的强人工智能?

这个问题,是 Alignment 这项技术真正想要解决的问题。

四、Alignment 对齐

当前阶段,模型的能力,除了 AlphaGo 在围棋上超过了最强人类之外,其他方面的 AI 并没有超过最强的人类(但 ChatGPT 在文科上或许已经超过了 95% 的人类,且它还在继续增长)。在模型还没超过人类的时候,Alignment 的任务是让模型符合人类的价值观和期望;但当模型继续演化到超过人类之后,Alignment 的任务就变成了寻找驾驭远超人类的智能体的方法。

4.1 Alignment 作为驾驭远超人类的智能体的方法

一个显然的问题是,当 AI 超过人类之后,还可以通过人类反馈让 ta 更强 / 更受约束吗?是不是这个时候就已经管不了了?

不一定,即使模型远超人类,我们依然又可能驾驭 ta,这里的一个例子是运动员和教练之间的关系:金牌运动员在 ta 的方向上已经是最强的人类了,但这并不意味着教练就不能训练 ta。相反,即使教练不如运动员,ta 依然可以通过各种反馈机制让运动员变得更强且更有纪律。

类似地,人类和强人工智能的关系,在 AI 发展的中后期,可能会变成运动员和教练之间的关系。这个时候,人类需要的能力并不是完成一个目标,而是设定一个好的目标,然后衡量机器是否足够好地完成了这个目标,并给出改进意见。

这个方向的研究还非常初步,这个新学科的名字,叫 Scalable Ochatgpt[15].?

4.2 Alignment 与组织架构

在通往强人工智能的路上,不只是需要人类与 AI 对齐,人类与人类,也需要高度的对齐。从组织架构的角度,alignment 涉及到:

Pretraining 团队与 instruction tuning - alignment 团队之间的对齐:这两者应该是一个相互迭代的过程,pretraining 团队不断地 scale 基础模型,alignment 团队为基础模型做 instruction tuning,同时用得到的结果反向指导 pretraning 团队的方向。

Pretraining / Alignment 团队与 Scaling / Data 团队的对齐:scaling 负责为 pretraining /alignment 做好基础设施,data 做好高质量数据与人类反馈数据。

创业公司与 VC 的对齐:AGI 是一个困难的事情,需要长期的投入,这需要各个方面的人都有足够的耐心和足够高的视野。烧一趟热钱后催产品化然后占满市场的逻辑在大模型时代应该已经不复存在了。大模型的游戏要求 ta 的玩家们有足够高的视野与格局,模型的演化会让有足够耐心的,踏实做事人们在长期得到丰厚的回报,也会让只看短期刻舟求剑的人们一次又一次被降维打击。

五、结语

在 2017 年,我刚刚入行 NLP 的时候,花了很大的力气做可控生成这件事情。那个时候所谓的 text style transfer 最多就是把句子情感分类改一改,把 good 改成 bad 就算是完成了 transfer。2018 年我花了大量的时间研究如何让模型从句子结构的角度修改句子的风格,一度误认为风格转换是几乎不可能完成的事情。而今 ChatGPT 做风格转换简直信手拈来。那些曾经看似不可能完成的任务,曾经极其困难的事情,今天大语言模型非常轻松地就能完成。在 2022 年一整年,我追踪了从 GPT-3 到 GPT-3.5 的全部版本迭代[11],亲眼看到它一步步地从弱到强不断演化。这个演化速度并没有变慢,反而正在加快。那些原先看来科幻的事情,现在已经成为现实。谁会知道未来会怎样呢?

彼黍离离,彼稷之苗。行迈靡靡,中心摇摇。

彼黍离离,彼稷之穗。行迈靡靡,中心如醉。

――― 《诗经?黍离》

相关阅读:

]article_adlist-->《热点解读:大模型的突现能力和 ChatGPT 引爆的范式转变》《ChatGPT 的各项超能力从哪儿来?万字拆解追溯技术路线图来了!》]article_adlist-->参考链接:

[1] https://scholar.google.com/【【淘密令】】er=x04W_mMAAAAJ ">谁能做出中国版ChatGPT?怎么做? 图2

[12] https://arxiv.org/abs/2112.04426

[13] https://platform.openai.com/docs/introduction/ochatgpt

[14] https://github.com/features/copilot

[15] https://arxiv.org/abs/2211.03540

[16] https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc1

ChatGPT及大模型技术大会

机器之心将于3月21日在北京举办「ChatGPT 及大模型技术大会」,为圈内人士提供一个专业、严肃的交流平台,围绕研究、开发、落地应用三个角度,探讨大模型技术以及中国版 ChatGPT 的未来。

届时,机器之心将邀请大模型领域的知名学者、业界顶级专家担任嘉宾,通过主题演讲、圆桌讨论、QA、现场产品体验等多种形式,与现场观众讨论大模型及中国版 ChatGPT 等相关话题。

点击阅读原文,立即报名。

THE END?

转载请联系本公众号获得授权

投稿或寻求报道:【【邮箱】】

]article_adlist-->   声明:新浪网独家稿件,未经授权禁止转载。 -->

中国巨中成加盟网

文章由用户自行发布,不代表本站观点。巨中成加盟网只提供存储服务,如有侵权请联系我们,

QQ:【【QQ微信】】。