庆云古诗词

庆云古诗词

open ai 和chat gpt发展史 chatgpt open ai 能修图吗

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


撰文 | 曹双涛

编辑 | 杨博丞

题图 | IC Photo

自2022年11月Chat GPT上线后,短短2个月的时间内,月活跃用户就已突破1亿,成为史上用户增长速度最快的消费级应用程序。

图源:西南证券

目前Chat GPT也已更新至4.0版本。新版GPT-4在诸多能力上也进行了优化,以文字生产领域为例,GPT-4能实现作诗、写邮件、写广告、剧本和小说。采用AIGC技术所撰写的高考作文,在不到1分钟的时间,完成了40多篇文章,获得专家打分48分的成绩,击败了75%的考生。

在此背景下,国内大厂纷纷跟进推出属于自身的AI大模型。比如说,百度的“文心一言大模型”,腾讯的“混元大模型”,阿里的“通义大模型”,华为的“盘古大模型”等等。

而在二级市场上,Chat GPT的火爆也直接带火了和AI相关的概念股。以人脸识别、大数据、智能交互技术、产品及服务提供商汉王科技为例,按照汉王科技对外公布的业绩预告来看,公司在2022年归属于上市公司股东的净利润为:-9800万元至-14000万元。长期的亏损,让汉王科技在1月30日以前的市值仅有40.85亿元左右。

但进入到今年2月份以后,汉王科技的股价一路上涨,甚至在今年3月时,股价曾达到30.66元/股的最高点。这一股价若是和今年1月份时期的15.34元/股相比,涨幅比例接近1倍。

图源:雪球

但硬币的另一面却是关于Chat GPT的争议声音越来越大。3月30日,人工智能和数字政策中心向美国联邦贸易委员会投诉,试图阻止向消费者发布强大的AI系统。次日,意大利隐私监管机构宣布境内暂时禁用Chat GPT。4月2日,在三星引入Chat GPT不到20天的时间内,已先后出现三次泄密事件等等。

针对以上问题,在美国当地时间5月16日召开的Open AI首次听证会上,围绕着外界所关注的由AI所产生的版权侵害,虚假内容、失业问题,数据安全等问题也展开了相关讨论。

本次接受质询的对象包括Open AI CEO Sam Altman,IBM副总裁兼首席安全官Christina Montgomery,纽约大学教授Gary Marcus。而本次听证会上的一些核心内容,也让我们提前感知到未来Chat GPT行业发生的一些变化。

图源:Open AI听证会

01 【【微信】】发展依然坎坷

针对3月29日,科学界联名呼吁:所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月的联名信。

作为联名信签署人之一的Gary Marcus在会上解释道,签署联名信并不是要求暂停AI研发,而是希望在具备规范、安全的AI管理措施之前,暂停部署比GPT-4更大的AI模型。若现阶段将这些具备超级功能的AI,全部交给普通人使用,这未免太过于冒进了

对此,Sam Altman解释道,未来6个月内Open AI暂无推出类似于GPT-5的计划。因为现阶段Open AI对部署更高版本的Chat GPT仍存在诸多顾虑。但与此同时,Sam Altman也提出了一个灵魂问题:若我们暂停6个月的AI研发,很有可能就会与时代脱节,6个月之后我们要怎么办呢?还要再停6个月吗?

如Sam Altman所言,若超级AI大模型需不断保持自身优势的话,则需要对模型进行不断反复的训练,但在训练过程中也产生了诸多问题。比如说,高成本和商业化问题。

以Chat GPT为例,2018年Open AI在训练GPT-1时,所用到的参数数量和数据训练量分别为1.17亿和5GB。但在2020年训练GPT-3时,以上两项数字则分别增长到1750亿和45 TB,GPT-4的训练参数量更是高达1.6万亿。

另据Open Al发布的相关数据显示,训练13亿参数的GPT-3 XL模型训练一次消耗的算力约为27.5 PF-days,训练1750亿参数的完整GPT-3模型则会消耗算力3640 PF-days(以一万亿次每秒速度计算,需要3640天完成)。

图源:Open Al

庞大的数据量以及算力决定了搭建AI模型为典型的重资金产业。以GPT-3模型消耗的算力3640 PF-days来看,相关证券机构测算,保守估计前期成本至少投入在200多亿元。并且Chat GPT在前期访问阶段初始投入近十亿美元,单日电费数万美元。训练阶段,单次训练约为百万至千万美元。

然而,在高成本的背后,目前关于整个Chat GPT不管是在TOC端还是TOB端的商业化仍不清晰。以TOB端为例,Chat GPT若想要完全打开TOB端市场,也面临着诸多现实问题。

一方面,如何打消TOB端的诸多顾虑,进而让TOB敢用Chat GPT。比如说,目前TOB端普遍担心因使用Chat GPT而产生数据泄露风险,进而对企业业务产生诸多不利影响。

但正如美国NIST(国家标准与技术研究院)发布了《AI风险管理框架1.0》所提到的那样,AI模型的优化可解释性和隐私增强性之间会存在矛盾;或者在数据较稀疏的情况下,隐私增强技术可能导致有效性降低。过度关注某一方面特性,例如:高度安全但不公平的系统、有效但不透明和不可解释的系统以及不准确但安全、隐私增强和透明的系统都是不可取的。

另一方面,对标围绕TOB端的SaaS产业的发展来看,TOB端产品只有给企业带来真正“降本增效”的价值,企业才愿意付费。但由于TOB端行业的分散性、差异性、多而乱的特点,行业很难形成规模效应。

目前国内SaaS产业所走的“以低价换取市场份额”的路线,也决定了当前国内和SaaS相关的企业,除具有先发优势的阿里云实现盈利,绝大多数企业仍以亏损为主。

那么未来Chat GPT在为TOB端服务时,其价格到底要如何制定呢?是走SaaS行业以价换量的路线,或是将价格定得很高,只服务小部分企业呢?但不管走哪个路线,均决定了Chat GPT在TOB端想要实现盈利,并非易事。

另外考虑到当前全球经济进入到新一轮下行周期,未来诸多行业业绩承压已是不争的事实。因此,不管是投资机构,或是大厂又是否有足够的现金流和足够的耐心,来真正探索出各类“超级AI大模型”的盈利,这里仍值得商榷。

02 生成式AI仍面临外部多重压力

若成本和收益问题超级AI大模型内部需面临的问题,来自外部的种种质疑也决定了生成式AI后续的发展并不明朗。

其一,如何对AI公司进行监管。Sam Altman提出的建议如下:对AI厂商提供许可证,并吊销不符合政府标准的厂商的许可证。为AI大模型创建一套安全标准,包括评估其风险,大模型必须通过一些安全测试;指派第三方专家独立审核AI产品的各方面指标,支持创立一个为AI制定相关标准的国际组织,由美国领导。同时,Sam Altman和Gary Marcus均呼吁成立专门的TOG机构,负责对AI的监管。

事实上,Sam Altman 和 Gary Marcus所提出的这些建议,也的确符合未来超级AI大模型的需要。比如说,对标国内的网约车拍照和金融支付拍照的发放来看,政府监管加强后,能让行业从此前的野蛮生长阶段逐渐回归到理性增长阶段。

但仍需要指出的是,因全球不同国家的文化、政治差异性较大,又叠加自2022年全球地缘冲突的不断升级和加剧,一套全球可行的AI式标准制定未来估计需要很长的时间才能制定。在尚无清晰的标准下,也决定了未来超级AI大模型的出海业务,将面临着层层压力。

其二,如何解决反垄断问题。在听证会上,参议员Cory Booke提出了一个问题:Open AI由微软支持,Anthropic则由谷歌支持。那么,未来随着这些公司的规模越来越大,其必然也会对人们的生活影响越来越大,并有可能在商业上实现垄断。

图源:Open AI听证会

对此,Sam Altman则解释道AI大模型的研发相对困难,只有少数企业能够研发出AI大模型。这并不会造成垄断,反而会在一定程度上降低监管难度。但坦白来说,Sam Altman的解释并不成立。一方面,如上文所述,基于研发AI大模型对企业的资金、技术均要求极高,目前AI大模型也的确被掌握在大厂手中

但另一方面,从国内多个行业的经验来看,当大厂完全主导后,行业必然会出现垄断现象,比如网约车行业、在线货运平台、外卖行业等等。而随着各国政府对本国反垄断法律法规政策制定的愈发完善,不排除后续各国政府对由超级AI大模型所产生的垄断问题,监管只会更加严格。

其三,针对外界所关注的由Open AI所产生的版权以及版权付费问题。Sam Altman则表示,未来Open AI会拿出相关政策保护地方新闻业的发展。但对于内容创作者版权权益的问题,Sam Altman并没有给出明确的回复。

事实上,对于Sam Altman的不回复虽能理解,毕竟Chat GPT在内容创作上需海量的内容作为支撑,而从国内内容平台给到创作者的收益来看,Open AI若是真正为创作者付费的话,这必然会加重Chat GPT的成本投入。

但坦白来说,Chat GPT对创作者内容的随意抓取,并且不付费的方式,无异于杀鸡取卵。一旦后续内容创作者进行联合,全面抵制Open AI的这种做法,未来GPT更高版本是否能继续保持优势,仍有待观察。

而从现阶段来看这种情况已经出现,比如说,去年柏林两位艺术家搭建了一个名为“我正在被用来训练吗”的网站,艺术家可以检索自己的作品是否进入了AI训练数据库。但Chat GPT所面临的问题并非个案,而是国内外AI大模型公司都必须要思考的问题。

03 AI大模型是否会引发大规模失业?

在听证会上,Gary Marcus指出人们不应该小看AI对就业带来的影响。事实上,Gary Marcus的担忧并非空穴来风。此前IBM曾宣布:暂缓可以被AI取代的岗位的招聘,约7800人将被永久淘汰。

图源:推特

微软也宣布将于6月底进行裁员,裁员对象主要为记者和编辑,并将在未来加大力度使用AI技术取代人类新闻编辑。“新上岗”的AI算法将会代替人类编辑选取可报道的新闻事件、改写新闻标题、寻找文章配图等工作。

但Sam Altman却认为,目前GPT-4仍能被人类很好的所控制和使用,它会让一些工作自动化,甚至被替代掉。但人类利用AI大模型可以拥有更多能力、更多时间追求自己喜欢的事物,这将创造出更多工作机会。

IBM的Christina和Sam Altman有着一致的观点。她认为,AI大模型“将会改变每一项工作”,如今的工作重点应该是做好新老工作的过渡。到2030年,IBM将培训3000万个人掌握当今社会所需的技能。

事实上,Sam Altman和Christina说法并非没有道理。现阶段,AIGC的确可以创作海量的内容,但AIGC毕竟只是工具,缺乏人类的情感和思考能力。而人类的情感和思考能力,在诸多工作岗位中发挥着重要作用。

以内容创作为例,作家余华曾指出:从我们目前对那个GPT的理解

就他的能力,如果他要写小说的话,他大概能写出中庸的小说。但他不会写出充满了个性的小说,因为他是大量的那种文本,他可能把小说写得很完美,但是其实是很平庸。

图源:网图

在以电商行业的客服岗位为例,从事多年电商客服工作的李洋洋告诉我们,在处理客户的售后过程中,最为核心的地方在于需根据和客户沟通过程中的语气、文字,推测出当前客户的情感,并做到有针对性地处理客户的问题。若单纯使用AI大模型回复客户售后问题,这不但无法处理好客户的问题,反而还会降低售后质量

而且拉长维度来看,若未来各类AI大模型具备和人类一样的情感,这必然会引发世界范围内的恐慌,不排除AI大模型会出现被关停的命运。但当AI大模型之充当辅助性工具后,也面临着一个问题。即它的能力和价格是否匹配,ToC端又是否愿意付费呢?

04 结语

事实上,任何新兴事物从成熟到发展,从来都是不走直线走曲线。但相较于其他行业而言,AI大模型所牵扯到的失业问题、各种法律风险、垄断问题、成本和收益等等,均注定了国内外任何一家AI大模型厂商在未来AI大模型商业化的探索之路上都难言轻松,对于后续AI大模型的发展是否能达到市场预期,仍需要时间来观察。



目前有可以替代chatgpt的应用吗 chatgpt常用预设

目前有可以替代水泥沙子的材料吗?,目前可以用什么代替,还有什么能够替代,可以替代的英语

友情提示:文章虽长但句句是精华,跳着看别怪FoxGPT没帮你挣着钱!别看说的就是你。FoxGPT:【【网址】】/

席卷全球的AI聊天机器人GPT,你玩过了吗?有些人试用后发现没获得想要的答案,其实决定FoxGPT回答品质的好坏,关键在于你提供的「Prompt」指令是否完善。本文手把手介绍FoxGPT的提问技巧,让FoxGPT成为你办公各个领域内的得力助手,从此高效工作、加薪、甚至撩妹不是梦!

你是否觉得试用FoxGPT后,AI总是给不出自己期望的回复。这是因为AI依旧距离我们的生活很遥远,还是因为没有掌握到使用要领呢?这篇文章会先带你了解「Prompt」是什么,并用简单的范例让你了解如何善用他、避开陷阱,以此获得更好的FoxGPT回覆。

本篇所教的程度,适合以下这些人:

? 会在FoxGPT里输入自己名字、看它胡说八道,觉得很奇怪的人。

非出书或写作专长,但觉得FoxGPT讲的内容都很普通、离自己程度还很远的人。

想要某个主题的答案,但FoxGPT怎么写都写不出来、觉得AI真笨的人。

? 输入一个问题后,就只会回「继续」、看FoxGPT写完的人。

以上这些用法,大概只是「玩玩」?FoxGPT而已,无法用在你的工作上,让你感觉帮不太上忙,不如自己写比较快。

这就有如拿到一台智慧型手机,却还是只拿来打电话;

装了RTX 4090的超强显卡,却还是玩扫雷游戏一样;

明明手持各种Chanel、Sk-II却只会一股脑往脸上拍。

旧工具就做得到的事,当然不会引起这么多讨论,你不会需要多一个Google或多一台 Siri,但每个人都可以多一个听懂你话的助理,甚至是你的高阶智囊团。

小提醒:

如果把小编文章中提供的Prompt贴到FoxGPT尝试,你会发现就算是一模一样的Prompt,也会得到不一样的解答。

这是因为FoxGPT是「生成式AI」,他的回答会受到许多因素影响,比如过去训练的模型、对话的语言、语境、谈话的上下文 不过结构良好的Prompt,有机会得到更好的回覆。

我们永远需要对FoxGPT的回答进行人为的判断。

01

FoxGPT可以用来做什么?

客户服务: FoxGPT可用于实时回答客户问题、提供信息和解决问题。这对于希望为客户提供支持的企业来说尤其有用。

教育: FoxGPT可用于在各种教育环境中提供信息或回答问题。例如,它可以用作导师或提供特定主题的信息。

?代码编程: FoxGPT可用于编写代码以及判断代码是否出错,帮你解决编写时遇到的各种问题。

个人助理: FoxGPT可以用作个人助理,帮助完成诸如计划、组织和管理信息等任务。

社交互动: FoxGPT可以用来进行随意的交谈或提供娱乐,使其成为社交媒体或在线社区的有用工具。

新媒体:FoxGPT可以用来进行文案的定制,直播计划等用于视频,文本等平台内容工具。

综上所述,FoxGPT在学术论文写作中具有非常重要的应用价值,它不仅可以帮助学术界提高写作效率和论文质量,也可以促进国际学术交流和合作的发展。

02

Prompt是什么?

如果你想请别人帮忙做事,就需要给他具体的「指令」或「提示」;把角色换成 FoxGPT,Prompt就是你问问题或提出请求的文字提示。

而决定FoxGPT回答品质的重要因素,就在于你提供的「Prompt」指令是否足够完善。

03

如果Prompt-指令不完善会发生什么事?

如果你已经出社会,让我们回想一下,老板、客户在跟你沟通时,你是不是常常觉得在通灵?很多人会抱怨老板、客户交代事情总是话说一半;但角色对换后,我们抛问题给FoxGPT时,是不是也常常问得很「模糊」?这种模糊就会导致对话偏离轨道、缺乏重点,无论是现实中的人类,还是FoxGPT 都无法给你合适的答案。

就拿写履历当例子好了,下面给几个范例:

帮我写一份求职履历。

帮我写一份「工程师」的求职履历。

帮我用繁体中文写一份让面试官眼睛一亮的求职履历。我是一名Backend工程师,有 5 年的工作经验,熟悉Node.js、MYSQL、【【微信】】等技术,也有GCP K8s的经验,做过RMA、OTA等系统。

如果你是一名工程师,用第一个「帮我写一份求职履历」提问,可能会收到一份「专案经理」的履历范本。

而第二个提问尽管有把履历限制到「工程师」的范围,但工程师的种类这么多(半导体、硬体、软体、网页、建筑?),如果不说清楚自己的资讯,怎么可能获得期待的回覆。

如果遇到上述问题,不是因为FoxGPT无能,而是你的问题不够「精确」。

Ok,了解「Prompt」的重要性后,接着就来学习如何写出有品质的Prompt吧!

读者可以将「好的 Prompt」理解为「好的提问与沟通技巧」,这些知识对现实的生活、工作也是很有帮助的!

04

好的Prompt有哪些元素

清晰:越「具体」越好,避免给出太过复杂或模棱两可的文字。

重点:要有明确「目的」,避免太过广泛或是开放式的问题。

相关性:在对话中,建议内容都围绕在同一个「主题」,多主题会分散讨论的焦点。

下面是FoxGPT认为「好」的Prompt范例:

? 2022年冬季奥运会在哪里举行?――该提问明确地提出了问题,并且特别指出了「时间」。

请告诉我美国总统林肯的知名事迹――该提问明确地提出了想获得的资讯,并且范围「具体」可以很容易地回答。

你能总结一下‘锻炼的好处’这篇文章的要点吗?――该提问重点突出且相关,便于FoxGPT提供所需信息。

巴黎有哪些供应素食的最好的餐馆?――该提问具体且相关,允许FoxGPT提供有针对性且有用的响应。

下面是FoxGPT认为「不好」的Prompt范例:

给我讲讲――没有明确地表达问题或请求,不知道到底想要FoxGPT讲什么。

请给我美食资料――因为没有指定地区或美食种类,所以无法提供具体的美食资料。

关于这个世界,你能告诉我什么?――这一提问过于宽泛和开放,使得FoxGPT很难生成有针对性或有用的响应。

你能帮我做作业吗?――虽然该提问清晰而具体,但它过于开放,不允许FoxGPT生成有用的响应。一个更有效的提问应该指定具体的主题或手头的任务。

你好吗?――虽然这是一个常见的对话开场白,但它不是一个定义明确的提问,不能为对话提供明确的目的或焦点。

不管对象是FoxGPT还是真人,遵循这些原则,都能让对方更好地理解你的意图,使对话维持在正轨上,是一种高效率的对话方式。

05

请-FoxGPT担任某个领域的「专家」

这是我觉得很实用的「技巧」,你可以告诉FoxGPT在接下来对话中要担任的「角色」,比如说:

你遇到了一些职涯问题,请FoxGPT担任「职涯顾问」,根据你提出的「具体情境、自身顾虑」给出建议。

连假要出去旅游,请FoxGPT担任「旅行社服务人员」,根据你的「目的地、时间长度、人员组成、特殊偏好」给出建议。

这边提供一个具体范例:「我希望你担任一个优秀的旅行社服务人员。我会输入“地点”的资讯,你只需要告诉我当地的“美食”、“景点”、“注意事项”。回答的字数不要超过400字,用“摘要”就好。我要询问的第一个地点是“宜兰”。」

接下来向大家说明刚刚范例中每一句话的用意:

我希望你担任一个优秀的旅行社服务人员:我希望FoxGPT担任的角色。

我会输入“地点”的资讯:告诉FoxGPT我会输入的关键字。

你只需要告诉我当地的“美食”、“景点”、“注意事项”:限制FoxGPT回答的范围。

回答的字数不要超过400字,用“摘要”就好:用两句话强调回答的限制。

我要询问的第一个地点是“宜兰”:让 FoxGPT 执行的第一项任务。

结构越严谨,越有机会在「一次」对话中得到期待的资讯;不过实际使用时,也能透过后续的对话来修正结果。

小提醒:

你可以把自己常用的「Prompt模板」纪录到笔记本,有需要时只要修改几个位置就好。

06

一些额外的建议

鼓励FoxGPT多给你一点建议:你可以在FoxGPT回应的基础上,再做更多延伸询问(ex:在知道台北有哪些知名美食后,你可能对卤肉饭更感兴趣,此时就能延伸询问:「请推荐几间在台北评分高的卤肉饭餐厅」)。

不要带有辱骂、轻蔑的口气:在得不到预期的答案时,你可以纠正他,让他回到轨道上;但如果用不良的态度就会导致沟通破裂。

多练习、多尝试:千万不要看完这篇文章就觉得自己搞懂了,一定要动手实践才会知道怎么样的Prompt能得到更理想的回应(欢迎跟笔者分享你的心得)。

找志同道合的人一起研究:这是一个新诞生的工具,对每个人来说都是陌生的,如果有人可以一起讨论、给予回馈,那大家可以共同进步(建议加入FoxGPT的社群)。

07

这边特别提醒读者

即使让 FoxGPT 担任专家,他给出的答案也未必全然正确。

后面我有再做一些测试,像是请他「推荐几间在台北评分高的卤肉饭」,他推荐的三间卤肉饭分别是「老记卤肉饭、阜杭卤肉饭、高雄卤肉饭」。如果这三间都没听过不是你孤陋寡闻,而是笔者用Google Map搜寻也找不到,这些餐厅是真的不存在QQ

结论:对工具理解越深,越能发挥他的实力

好的Prompt能让FoxGPT有更好的回应,下面是整理的基础结构(原则):

让FoxGPT了解自己要担任的「角色」:比如职涯顾问、健身教练、翻译员

清晰、有重点的提出「问题」:避免提出模棱两可、开放式的问题,像是可以把「你对xxx策略有什么看法」调整为「xxx策略主要有哪些好处」。

明确定义你期待的「结果」:希望FoxGPT向你提供资讯、回答问题还是随意聊天。

相比于其他市场上的聊天机器人,相信用过的人会觉得他的回应更加「自然」,而且可以完成「连续」有逻辑的对话,即使是刁难的问题也能给出有一定「深度」的回覆。