庆云古诗词

庆云古诗词

chatgpt 真的有那么神吗 chatgpt真的很强吗

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

chatgpt是什么意思,chatgpt官网,chatgpt怎么下载,chatgpt怎么用
     当前位置:平潭时报  >> 第3727期 >> 007版 新媒周刊・科技前沿 返回
上一篇   下一篇     放大  适中  缩小


世界互联网大会、光明网

2023.04.06

  

  ChatGPT可能在一本正经地胡说八道

  

  □世界互联网大会、光明网

  近期,以“生成式人工智能”(GenerativeAI)为核心技术的聊天机器人ChatGPT火爆全球。世界互联网大会深度对话不同领域专家,分享精彩观点和预判。

  ChatGPT会替代记者的工作吗?我们应该怎么看待 ChatGPT的未来发展?中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏这样说。

  Q:您使用ChatGPT的感受如何?有哪些明显不足?

  A:相比过去的GPT3,感觉确实是有明显的提升,尤其是它对话的流畅性很好,说明现在语言生成模式方面做得不错了。对于比较大众化的或者比较浅显的专业知识,它能够提供,组织得也很不错。但对于比较专业性的问题,它就开始出问题了。

  ChatGPT使用了带人类反馈的强化学习,GPT3生成语言的能力就已经很强大了,再加上Chat(聊天)的方式,就比较火,某种意义上这也是商业推广很好的模式。目前ChatGPT似乎有个限制,内容更新不是很快。例如,你要问它中国最火的电视剧,它大概答不出叫《狂飙》。因为这涉及AI中的灾难性遗忘问题:怎么让它很快学会新东西,又不去干涉原来的东西,这是AI领域尚未完全解决的问题。

  另外,ChatGPT没有对概念的具身体验,这就是我们真正的commonsense(常识),我们从小在生活环境里所积累的知识,例如重力等等。对一个东西我们不单看到,会听到,可能会摸到、闻到、吃到,是全方位的。如果你看到一个黑色的苹果,你敢吃吗?你肯定会犹豫,没准一摸你就知道那是个烂苹果。实际上我们人类对很多东西的理解是具身理解,在自然语言处理里的“理解”,仅仅依靠文本,是一种肤浅的理解。

  Q:作为一名记者,被【【微信】】替代的可能性有多高?

  A:我觉得你现在不用太担心,首先记者是个基于深度理解来提出问题的提问者。在深度理解这方面,ChatGPT目前还做不到。还有,它现在不碰情感系统。但作为记者,这两点都很重要。而且,记者需要快速学习,因为你希望知道受访者的性格等等方面,在采访过程当中,甚至你可以快速学习和了解到,这些都不是机器目前能够做得了的。

  Q:我看您在朋友圈里评论,“ChatGPT是穿了个AI的深度学习马甲”,“不要把ChatGPT看成AI就好”,“对科学来说大概率是很流畅地胡说八道”,如何理解这些观点?

  A:这几年自然语言处理领域确实有比较大的发展。很多学生就往这个方向偏,觉得这个方向好找工作。很多企业也确实需要这样的人,但作为我们做科研的人确实还是蛮担心的,不太乐观,因为它对专业的东西会胡说八道。所以如果是想要搞研究的人把ChatGPT当成导向式东西的话,可能会引发很大的问题。所以我说它是“穿了个AI的深度学习的马甲”,它本身并不像科学家或者专业的人具有很专业的思考和专业的知识。

  另一句“不要把它看成是AI就好”,因为AI的本源是想要模仿我们人类的智能。很明显ChatGPT它不是类似于人的智能,在某种意义上它超越了人,它知识面特别广,但是在深度上,它没办法像人一样深入思考。对于具有科学深度的知识和思考,它大概率是很流畅的,但常常是“很一本正经地胡说八道”。

  Q:如果不把它看成AI,要把它看成什么呢?

  A:一个辅助工具,就好像最早的时候连计算器都没有,我们买菜买肉就心算,麻烦一点就拿个笔算,慢一点。后来有计算器了,就快了。现在ChatGPT也是特别快,它的自由度变高了,也就是说我可以随便问。以前你也可以用搜索引擎搜索很多东西,但基本以关键词搜索。现在可以用关键句来搜索。你可以让它帮你写一段,所以效率是高了。但是它的产出的内容是否有深度?这个我不看好。

  专家简介

  曹立宏,中国传媒大学学术委员会副主任,脑科学与智能媒体研究院院长、博士生导师,中国人工智能学会第八届理事会理事,第八届教育部科技委员会人工智能与区块链技术专委会委员,专注于类脑智能和计算的研究。

(全文共1666字)
分享到:


ChatGPT 核心原理


ChatGPT作为一种基于深度学习的对话生成模型,已经成为自然语言处理领域的佼佼者之一。归功于海量的训练数据,使得它具有了强大的语言理解能力,可以在对话中理解更多的含义和语气。

本文旨在探讨ChatGPT的内容生成原理。

首先,在研究ChatGPT的内容生成原理之前,不妨先思考一下人脑是如何通过面对现实中的问题,检索大脑中的信息并反馈回答。

假设我现在提出一个问题:“中国今年经济发展可能会遇到的挑战和应该采取的应对措施包括哪些?”

当面对这个问题时,人脑会根据记忆中存储的近期经济形势、国内外的政策环境、市场竞争情况等方面来检索相关信息,同时生成最具确定性的一句或者一段回答,比如:“当前中国经济数据是XXX,国内外环境XXX”。生成了前面一段回答后,一边回答一边思考后面的回答:“所以当前经济环境主要面临XXX”,然后再根据现在的回答,进一步生成后面的答案:“所以可行的措施包括XXX”。

这种“生成式”思考和回答方式是人类大脑中的一种重要信息处理方式,它不仅存在于回答问题的过程中,也存在于语言表达、创意思维、决策制定等多个领域。

类似人脑的“生成式”思考和回答方式,也是ChatGPT等自然语言生成模型的核心原理之一。ChatGPT通过对大量语言数据的学习和建模,能够自动生成与给定文本相关的自然语言内容。与人类大脑类似,ChatGPT也能够基于之前生成的内容,结合当前的语境和任务要求,进一步生成后面的内容,从而实现连贯的自然语言生成。

这种内容生成方式主要基于自回归模型,是一种基于概率模型的自然语言生成方法。在生成过程中,ChatGPT会根据已经生成的部分内容,结合当前的语境和任务要求,预测接下来最可能的文本序列,再将该序列作为下一个时间步的输入,进一步生成后续文本。之所以被称为自回归,因为模型会通过自身已经生成的序列来进行下一个时间步的预测,从而实现连贯的自然语言生成。

简而言之当chatgpt回答了”中国经”三个字之后,第四个字的生成方式是把前三个字代入进去,根据模型能力继续生成答案,所以第四个字就是”中国经济“。这与人脑的思考方式如出一辙。

此外,ChatGPT还通过在训练过程中引入了遮盖机制残差连接等技术,进一步提高了生成的质量和效果。

然而,与人类大脑相比,ChatGPT的生成方式更加基于模式识别和统计学习,缺乏深刻的理解和推理能力。因为它并不是真实地生活在人类世界中,它的所有学习来源也只是在互联网上的训练素材,缺乏对于常识知识的理解和应用能力。

举个例子,它是"只见过猪跑,没吃过猪肉",它形容的猪肉的味道都是通过素材学习而来,并非真实感受。这也是为什么在一些常识性的问题上,它会出现一本正经地胡说八道,而在专业知识的领域,它却表现得就跟专家一样靠谱。

ChatGPT的出现,大大提升了人类利用现有知识的能力,未来AI应用场景要发挥模型高效提炼专业知识能力的优势,扬长避短。

过去专业领域的知识你需要跟在该领域工作10年的专家咨询,现在你只需要通过ChatGPT问它你的问题,就能得到针对性的回答。

目前最具确定性的几个应用场景包括:

  1. 智能客服:ChatGPT可以通过对话系统自动回答用户的问题,提高客户服务的效率和质量,帮助企业降低人力成本和提高用户满意度。
  2. 内容创作:ChatGPT可以自动生成高质量的文章、小说、诗歌等文本,为作者提供创意和灵感,并节省写作时间和精力。
  3. 舆情监测:ChatGPT可以对网络上的文本进行分析和判断,帮助企业了解用户需求和市场趋势,从而制定更为准确和有针对性的营销策略。
  4. 教育辅助:ChatGPT可以自动生成答案和解释,为学生提供学科知识和答疑服务,提高教育效果和学生满意度。

上一篇ChatGPT能分析数据吗 CHATGPT测试

下一篇 chatgpt是弱人工智能吗