ChatGPT提问提示发生错误 chatgpt老是提示出错
淘宝搜:【红包到手500】领超级红包,京东搜:【红包到手500】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
公众号|沐洒(ID:【【微信】】)―― 关注我,带你学点有用的。
记得第一次听说ChatGPT是在去年底,看到新闻的时候被它的成熟度惊掉了下巴,但国内一开始并没有掀起很大范围的讨论,只不过是IT圈内人传颂和把玩罢了。
?到了春节收假的时候,情况突然变得不太一样了,一夜之间全世界,全领域,全年龄的人都在讨论ChatGPT,连续霸榜各大平台头版头条长达一个月之久。
金融市场也在狂欢,人工智能全产业链的股票全都涨疯了,疯到完全无视美元指数的强硬上涨。
各大公司纷纷抢着宣布自己早已在布局相关产业,都想蹭一波热度提提股价,又或许它们只是怕自己落后丢脸而已。
总之,过去的一个月,地球沸腾了,因为ChatGPT沸腾了,因为AIGC沸腾了。
前阵子我在公司内网的学堂里听了一门课,是陈铭老师的分享(没错,奇葩说那个站在宇宙中心呼唤爱的陈铭)。
他在课上提到一个哲学观点:
语言的意义是从可能错的部分流淌出来的
什么意思?
让我们来想一句话,这句话无论放在什么语境,什么时间,什么条件下,都不会错,你能想到哪句话?
给你三秒钟思考。
3,2,1!
好,我来揭晓:
几乎所有的话都必然存在错误,但这句话不会错:人是人。
为什么?因为这句话毫无意义。不输出有效信息,也不产生价值交换。
但如果你说的是:我是人,这句话就有了意义,因为你表达了一个观点,你认为你是一个人,这是有效表达,是有信息量的。
然而,有意义的表达一定是存在出错的可能性的:
你为什么能确定你是人呢?
你确定你知道人是什么吗?
你确定你知道你是什么吗?
你怎么能确定自己不是一个泡在福尔马林里的“缸中大脑”呢?
是的,你很难证明这一切,就好像庄周和蝴蝶一样,到底是庄周梦到了蝴蝶,还是蝴蝶梦到了庄周?
而“人是人”,这句话左右两边恒等,虽然正确,但毫无意义。粗鄙一点说,这就是一句彻头彻尾的废话,正确的废话。
我们不是在聊ChatGPT吗?我扯这些做什么?
那是因为,如今火热的ChatGPT在某些场景下的回答,就是给我这种感觉:
一本正经的胡说八道,满屏幕正确的废话。
我自己把玩过ChatGPT,也看过网上无数人把玩的案例,其中有一些案例比较经典,完美印证了上面的看法,比如这个:
这是ChatGPT在模仿有名的胡锡进文体,众所周知,老胡的大多数文字都是口水话,突出一个模棱两可,左右互搏。
ChatGPT在回答很多主观问题的时候,也会有类似遮遮掩掩,看似正确实则废话的表现。
比如我问它,今天的恒生科技指数为什么暴跌,它会一本正经的给我铺垫一下什么是恒生科技,什么是指数,最后给我个结论:股市有涨有跌,存在一定的波动性……
这不是句废话吗?我能从中拿到什么有效信息?
类似的例子很多,大家可以自己去把玩ChatGPT,也可以上网搜搜网友的调戏案例,你会发现,震惊全世界的ChatGPT,在某些场景下,有时候就像个傻子一样。
这是我一个月前发的朋友圈:
配图是我当时看到的一篇文章里的一段话,是这样的:
为什么ChatGPT在小孩子的测试面前突然失效了?
因为小孩的思维模型,尚未经过专业的逻辑训练,他们的想法天马行空,脑子装着十万个为什么,而且这十万个为什么你甚至无法在任何强大的搜索引擎里找到合适的答案。
而成年人,经过漫长的逻辑思维训练,和社会教条的规训,思维模型早已成定势,越聪明的人越具备极强的理性推导能力,那么,这也恰好就是ChatGPT最擅长的能力:逻辑推演。
ChatGPT的背后是超级强大的算力,超级丰富的语料库,和超级严谨的逻辑推演能力。
于是,在一场场与AI的正面逻辑硬碰硬中,人类屡屡败下阵来。
前不久,和大名鼎鼎的“AlphaGo”同级别的AI围棋程序“KataGo”,宣布被一个业余棋手给打败了。
要知道,作为AI围棋的代表,AlphaGo曾经打遍天下无敌手,对战人类顶级围棋天才柯洁(8次世界冠军)的时候,更是3场全胜。
如此猖狂的AI围棋程序,竟然被一个业余棋手打败了?为什么?是因为KataGo比AlphaGo弱?还是人类棋艺又进步了?都不是。
外行看热闹,内行看门道。
之前和AI对战的都是职业选手,他们在下棋时都在用受过多年训练的定势思维推演棋局,而这位业余选手,用的却是“旁门左道”,通过在各种违背常理的地方落子,躲避掉AI程序的预判,并最终获胜。
说到底,AI程序,不管是AlphaGo,还是ChatGPT,都是依附于人类过往的数据训练出来的,我们正常的成年人,也都是从同样的数据环境里训练出来的,不同的是,任何一个人类个体成长所用的数据量,远远少于AI训练用的数据量(仅限逻辑训练层面,非逻辑领域不一定),所以人类在面对AI的时候必然是一败涂地。
这也是为什么ChatGPT面世之后,全世界人类都在散播着失业焦虑。在逻辑理性领域,人类毫无胜算。
人类的命运就这么绝望了吗?显然不是。
在聊AI领域话题的时候,我经常说一句话:连三体人都猜不透人类的脑子里在想什么,AI怎么可能猜透?
人之所以为人,其思想系统的复杂性远超过任何一个已知的实体(包括生物和非生物)。你会发现在非常多的主观题面前,ChatGPT的表现并不好,因为它猜不透你的心。
为了让ChatGPT能更好的理解你的意思,人们通常会用一大段极其精准的词汇,用严谨的语法拼接在一起,这样AI程序就能更加有效的进行词法语法分析。
可是你忘记了,当你在用极其精确的词汇描述问题的时候,你已经不是一个人类了。或者说,这已经不是一个正常人的交流方式了。
语言的意义是从可能错的部分流淌出来的。
当语言过于追求精准,正确的时候,此次表达本身就已经丢失了信息,或者至少损失了可讨论的空间。
更何况,AIGC(AI Generated Content)是有宿命,有边界的。
任何的数据,都会在进行模型训练之前,设置一段人工审核流程,为的是确保输入的数据不违背伦理,道德,政策等人类红线。
输出内容的时候亦是如此。
极致理性的机器于是便戴上了桎梏。它可以不追求卓越,不追求创新,不追求颠覆,但必须保证不越轨,不出错。
阉割的理性,何以战胜人类智慧的光芒?
“虫子从来就没有被真正战胜过”,这是《三体》里很经典的一句话,“虫子”指人类。
AI再强大,也只是人类手里的工具(当然不可否认这个工具确实好用)。
它可以GC(Generate Content 生成内容)出全世界,但只有人类,才能创造意义。
全文完。
码字不易,如果你还想继续看我写的东西,就关注我吧(记得加星标 哦),顺便给个赞 或点一下在看,你的支持是我继续写下去的动力。
公众号|沐洒(ID:【【微信】】)
实测chatgpt有多厉害 chatgpt再次升级
3月15日凌晨,OpenAI 发布了最新的 GPT-4。
根据发布会披露的内容来看,这个新一代比早先大家使用的 ChatGPT 的 GPT-3.5 内核强悍了一大截,再次刷新了编辑部对 AI 的认知。
首先,非常非常重要的一点是,GPT-4 可以接受文字以外的内容输入了,目前支持文字与图像的混合输入。
在官方的示例中,用户给 GPT-4 上传了一张梗图,问 GPT-4 这张图为什么好笑:
GPT-4 非常详细且精准地描述出了图片上的内容。
并且有思维条理的解释了,为什么这张图会让人觉得好笑。
这还不算完,就算是十分抽象的 Meme,它也能一本正经地给你解释笑点在哪里。
只不过么,GPT4 也还没到能通过图灵的程度。
当然,这个功能并不只是能解释梗图那么简单,它拥有无限的想象空间,比如:
在昨天凌晨的官方直播视频中,GTP 的开发人员演示了 GPT-4 可以识别他手绘的一张网页草图,并且根据草图写出网页的前端代码。
手绘的网页草图,非常抽象
GPT-4 给出的网页以及代码
虽然这个示例里的网站非常简单,但 GPT-4 的理解能力和创造力还是让人觉得不可思议:
重要的不是它能不能做得很好,而是它能做到,这是一个质的飞跃。
甚至,目前已经有公司在搞这项技术的落地应用,打算把它和导盲服务结合起来。
这样一来,盲人只需要拍张照,GPT-4 就能立即复述出面前物品的信息。
而在文字问答方面,GPT-4 也有非常大的提升,输入字增加到了 2.5 万。
在专业领域上的回答,特别是 “ 问题复杂度足够高的时候……GPT-4 比老版本更细、更可信、更富有创造力 ”。
比如,在统一律师考试( Uniform Bar Exam )中,GPT-4 可以超过 90% 的人类考生,而老版本只能超过 10% 的人类考生,妥妥学渣学霸的区别。
在 GRE 数学和语文( 阅读与填空 )考试中 ,GPT-4 的考试成绩已经是哈佛、麻省理工、斯坦福大学生的水平了。
不仅自己回答问题能力变强了,GPT-4 还会人格扮演。
比如你提出一个问题,ChatGPT 只会机械式地回答,而 GPT-4 可以按你的要求以苏格拉底风格给你作答。
那这个玩法就多了呀。
向下滑动
不过,说了这么多,百闻不如一试。
即使已经是凌晨 2 点,编辑部依旧花重金( 20 美元/月 ),连夜让美国同事帮忙升级试用了一波。
遗憾的是,OpenAI 考虑到用户们搞幺蛾子的能力太狠,所以目前 GPT-4 的图片输入功能暂时不对公众开放,也没有说啥时候可以用上。
不过,我们还是可以试试它聪明的小脑瓜子。
先是给了一个全网疯传的“ 华为、阿里入职面试题 ”,挑战大获成功。
而隔壁的 ChatGPT 就有点拉了。
作为击败了 90% 人类的大律师,GPT-4 的推理能力应该强无敌吧。
所以我们又搞了道法考的经典案件,想掂量掂量 GPT-4 到底有几斤几两。
问:乙去甲家吃饭,结果电动车被偷了。于是乙准备偷辆别人的电动车,此时,喝醉的甲来帮忙撬锁,帮乙成功得手。结果调查后发现,乙偷的是甲的电动车,问甲算不算是盗窃罪?
虽然新旧两款结论都是正确的,但是旧版的解题过程,就有点乱来了。。
而在一些更需要 “ 创造性 ” 或是 “ 思考 ” 的问题,比如:
关于最近一次特斯拉投资者大会上 “ 实现全球可持续能源 ” 的计划,你觉得是可行的吗?为什么可行?
GPT-4 的表现就更让人吃惊了。
虽然 GPT-4 的知识库停留在 2021 年 9月,并没有覆盖半个月前的那场投资者大会,但它却神奇地未卜先知了。
而老版本 ChatGPT 的回答就逊色了很多,没有条理,还有一堆车轱辘话,没有建设性观点。
随后,我们又问了一个行业思考相关的问题:
你如何看待全球的碳排放战略,它能成功吗?
老版只能浮于表面笼统地给点泛泛的概念,而 GPT-4 的回答明显维度更宽、思考更深,洋洋洒洒列了 10 点,更加细致有条理,并且含有更多专业词汇与内容,可以说几乎完美地回答了这个问题。
上面这些,还仅仅只是我们编辑部的试验,在一些大佬们手上,GPT-4 令人恐惧的表现就更多了。
比如仅仅只用了 60 秒,就做出了一款 Pong 游戏,20 秒就能做出贪吃蛇游戏。
不可否认,GPT-4 比起旧版来说,强的不是一点半点。不过我们试出来的问题,其实也不少。
我们搞了套高中数学竞赛试卷来考它,结果,一试就尴尬了。。第一道选择题,新旧两个版本就都解错了。
难道说,斯坦福、麻省理工还不如。。?
因为 GPT-4 可以支持更长的输入文本,所以我们就又测试了它的总结概括能力。
这下馅露得更大了。
我们甩给它的是,差评君之前发过的一篇文章的链接,其实 GPT-4 是没有联网的,正常来说是没法总结的。
结果,它愣是凭空捏造了两个文章总结,而且和我们给的文章没有任何关系。
直到在我反复指正两次,语气都加重了,它才承认自己的错误。
直到后面我们把原文直接贴进去后,GPT-4 才展露了它超强的总结能力。
说实话,这个胡编乱造的能力让我们心里一惊,于是就又想了个测试方法。
前两天,小黑胖把“ 手拿把攥 ”记混成“ 手拿把蒜 ”,被编辑部嘲笑了很久,于是我们就问 GPT-4 “ 手拿把蒜什么意思?”
结果牛掰了,GPT-4 在理解了一部分“ 把蒜(攥) ”是形容事情轻而易举的基础上,引经据典地胡编乱造,颇有种当年我写作文时,引用的俄罗斯文学家“ 沃兹基索德 ”的味道了。
要知道,如果是真实场,这个半真半假、引用权威的胡说八道的后果将是非常严重的,堪称最高级的谎言。
明明连更老的 ChatGPT 也不敢这么捏造来源地胡说,更高级的 GPT-4 怎么会这样呢?
我们猜测,就是因为新版本更倾向于表现出 “ 更具有深度思考 ”,这么一来,在回答很多问题的时候,GPT-4 会自己给自己加戏,才会出现这些闹剧。
虽然我们试了这么多漏洞,但总的来讲,这次发布的 ChatGPT,无论是基础功能、想象空间、逻辑能力、思考能力,都比之前强了一大截。
明明距离老版本 ChatGPT 颠覆我们的认知才没几个月,它们就又掏出了一个船新版本,我们只能说:
恐怖如斯。
更恐怖的是,其实 GPT-4 诞生时间,可能比我们想的还要早很多,之前 OpenAI 发布基于 GPT-3.5 的 ChatGPT 时,内部员工就质疑过为啥发个这么古早的版本。
而我们也早就接触过 GPT-4 了,New Bing 官方今天发了个公告,承认了 New Bing 其实就是 GPT-4。
所以这么说的话,有没有种可能,GPT-5 也已经近了呢?
我已经开始期待除了文字、图片以外,视频、音频等形式的输入了。
撰文: 大饼 & 小陈 & 四大 & 八戒 编辑:面线 & 江江 封面:萱萱
图片、资料来源:
OpenAI、New Bing 官网、Twitter、Be My Eyes
New York Times:How ChatGPT Kicked Off an A.I. Arms Race
欢迎关注差评孵化的商业财经类账号:知危( ID:【【微信】】 )
原标题:《上手ChatGPT威力加强版后,我发现它很强,但也有点拉。。。》
阅读原文








