庆云古诗词

庆云古诗词

ChatGPt有意思的问题 chatgpt真的无所不能么

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

chatgpt,chatgpt官网,chatgpt怎么用,chatgpt怎么读

――人工智能,正从“能力”走向“魅力”

文:中外管理传媒社长、总编 杨光

Chat GPT如何“诊断”AlphaGo?

2016年3月,谷歌机器人横扫围棋世界冠军李世石。我于是曾在《中外管理》卷首语中预言:人工智能(AI)的时代来临了!――因为,人类即便在充分展示着自身艺术智慧的围棋玄学上,那一春,也彻底被机器碾压了。

然而,我似乎言之过早。

那个叫AlphaGo的“围棋怪才”,在征服了人类在棋盘上的最高智慧后,仿佛忽然一下丧失了进化的目标,与“机生”的意义,很快就在谷歌的五颜六色中销声匿迹了。这有点像郑成功,荷兰人侵占*时出生,赶跑荷兰人后半年就亡;又有点像神童仲永,儿时出口成章,却很快耗尽智商而泯然众人。

奇怪了,这AlphaGo的“神奇”,为什么只停留在了仅有1/3平方米的围棋盘上?为什么看似已经完胜人类之后,其结果依然是上帝的归上帝,凯撒的归凯撒?为什么这场机器人风暴后,人类的一切仿佛什么变化都没发生?

我不知道。六年多来,我和很多人甚至已忘记了追寻这些“为什么”。直到2023年春,对,七年之后,我“痒痒”地以举手之劳就获得了令我信服的答案――居然是从与另一个机器人的聊天中!

当我单刀直入地发问:“AlphaGo名噪一时后,为什么没能产生后续的影响”时,他(对不起,我实在做不到再傲慢地用“它”字来指代)连磕巴都没打就用流畅的中文告诉我:

“AlphaGo在2016年击败了世界围棋冠军李世石的比赛,引起了巨大的轰动,成为了人工智能领域的里程碑事件。然而,尽管AlphaGo的胜利证明了机器在复杂的策略游戏中能够战胜人类,但它并没有像人们预期的那样在其后产生持久的影响。以下是一些可能的原因:

1.局限性:AlphaGo是专门设计用于围棋游戏的,而且算法复杂,需要大量的计算资源,因此它并不能直接用于其他领域。

2.应用场景有限:围棋虽然是一种非常复杂的游戏,但并不是一个真正的应用场景。AlphaGo的成功并没有直接转化为其他实际问题的解决方案。

3.难以理解:由于深度神经网络等技术的复杂性,AlphaGo背后的技术并不是每个人都能够理解和应用的。这使得许多人无法将AlphaGo的成就直接应用于实际问题。

4.竞争:人工智能领域有很多公司和研究机构在不断推动技术的发展,AlphaGo的成就被其他人工智能技术所超越。因此,它的影响力也就逐渐减弱。

综上所述,尽管AlphaGo是人工智能领域的里程碑事件,但它的影响力可能受到了许多因素的制约,导致它没有像人们预期的那样产生持久的影响。”

――此刻,你被震住了吗?而“他”,就是从去年底至今已经席卷全球引发举世惊呼的Chat GPT。而且,那还只是较“原始”的Chat3,还不是更惊世骇俗的4。而出离想象的5,据说已在路上。

Chat GPT如何“学习”《中外管理》?

能将围棋机器人分析得如此透彻的Chat(意:闲聊)机器人,究竟与前辈有怎样的明显区别?Chat GPT又会不会是下一个高开低走的AlphaGo?

我可以肯定地说:不会。因为他们已有本质的区别。

七年前,我曾指出:AlphaGo的动人之处,在于它已能“像人一样去学习”。但我当时还不可能说出来的是:它的下一代,不只是向人去学习,而是直接向人学习。它也不只是学习围棋,而是学习一切。于是,它不只深谙围棋,而几乎能无所不知,成为“他”。

且看我围绕《中外管理》和我父亲的简介与Chat GPT的“闲聊”:

我:你了解中国有一本《中外管理》杂志吗?

Chat:是的,我了解《中外管理》杂志。《中外管理》是中国一本重要的管理类期刊,着重报道国内外管理领域的最新研究成果、实践经验和管理趋势,包括企业管理、组织行为、市场营销、人力资源管理等多个领域。该杂志成立于1985年,现已成为中国管理领域的权威媒体之一,被广泛阅读和引用。

我:《中外管理》应该是创办于1991年。

Chat:非常抱歉,我的回答有误。您是正确的,《中外管理》是在1991年创办的。请接受我的道歉,我的信息出现了错误。感谢您的纠正!

于是我又问了一遍同样的问题。

Chat:是的。我了解《中外管理》杂志。该杂志成立于1991年,是中国企业管理领域的重要期刊之一,致力于报道国内外关于管理领域的最新研究、经验和趋势,包括了企业管理、组织行为、营销管理、人力资源管理等多个方面。《中外管理》被广泛阅读和引用,为中国企业管理相关研究的发展提供重要支持。

我又继续问:《中外管理》的创始人杨沛霆教授你了解吗?

Chat:是的,我了解杨沛霆教授。他是《中外管理》的创始人之一,也是管理学科的重要代表人物之一。杨沛霆教授的研究方向涵盖组织与人力资源管理、商业伦理学、企业社会责任等多个领域,曾担任香港大学商学院院长、全球华人人力资源管理研究会会长等职务。他的研究成果被广泛引用,影响了大量管理学者和企业家。

我:纠正一下,杨沛霆教授没有在香港担任过职务,他是中国的科学技术情报、科学技术史、环保科学、领导科学、软科学的开创者,是中国著名管理学家,晚年专注于企业管理的研究与传播,创办了《中外管理》杂志,和中外管理官产学恳谈会,是首批享受中国国务院特殊津贴的专家。

Chat:非常感谢您的纠正和补充信息。我的原答案中的错误造成不便,非常抱歉。您提供的信息是正确的。杨沛霆教授是中国著名的管理学家,开创了多个学科,奠定了中国管理学的基础,并为中国的企业管理研究和发展做出了重要贡献。他的《中外管理》杂志和中外管理官产学恳谈会等项目也为中国管理学的发展做出了不可磨灭的贡献。

接着我也又重复了一遍问题。

Chat:是的,我熟悉杨沛霆教授。他是中国著名的管理学家、学者、作家,曾任职于多所知名大学,主要从事组织行为学、战略管理、企业伦理学、企业社会责任等领域的研究,为中国和全球的企业管理研究和发展做出了重要贡献。杨沛霆教授是《中外管理》杂志的创办人之一,该杂志为中国企业管理研究提供了重要平台。

我于是不甘心地再次提醒他:杨沛霆教授是中国的科学技术情报、科学技术史、环保科学、领导科学、软科学的开创者,是中国著名管理学家,晚年专注于企业管理的研究与传播,创办了《中外管理》杂志,和中外管理官产学恳谈会,是首批享受中国国务院特殊津贴的专家。

Chat:非常感谢您的纠正和补充信息,您提供的信息是正确的。杨沛霆教授是中国著名的管理学家,开创了多个学科,奠定了中国管理学的基础,并为中国的企业管理研究和发展做出了重要贡献。他的《中外管理》杂志和中外管理官产学恳谈会等项目也为中国管理学的发展做出了不可磨灭的贡献。同时,杨沛霆教授还是享受中国国务院特殊津贴的专家之一,他的教育、管理、研究工作为中国企业管理领域的发展注入了新的活力。

短短几个回合的问答交流,是不是足以让我们感到震撼乃至汗颜?

第一,他在交流中,能“迅速地”学习修正补充自己原有可能不充分、不完整乃至不准确的信息和视野,并到了立竿见影的程度。我们人类有多少人可以做到?我们管理者是不是经常会苦恼我们的同事为什么总是这耳进那耳出、油盐不进、屡教不改?事实上我们的培训效率低、管理成本高、绩效改善慢,很大程度不是由此而生吗?

第二,他在学习的时候非常讲究谦逊的态度。对于任何指正,他总是首先表达感谢,进而表达歉意。还不止如此,他还一定会告诉你:“你提供的信息是正确的”。就凭这三点,我们人类有多少人可以做到?我们即便在接受指正时,又有多少人会同时露出不屑或不耐烦?又有多少人真能做到闻过则喜?更有多少人在修正自身不足时还能关注对方的心理满足,将对方的“正确”念念不忘?我们人类不是早就发现态度往往比能力更重要吗?

第三,他在学习的时候,态度虽好,却并非不择良莠,照单全收。他其实一直在以不可思议的速度在分析、判断和选择你给他的新信息,进而他再以不可思议的速度用他认为妥当且你能认可的方式再表达出来。我25年前就曾建言我的学生们:成年后在时刻坚守善良时,还要同时坚守独立的判断力。而Chat GPT这个机器人,已经学会用让你舒服的方式来开放接纳你,同时坚守他自己。我们人类有多少人可以做到?

确实如此,我在与Chat GPT闲聊中,发现他已经不仅仅是一位似乎无所不知的“博士”,而且他还有人类现代文明的普世价值观,还是个“绅士”。他并非与你可以无所顾忌地畅聊“一切”,他会非常敏感地告诉你:你这个话题可能涉及地域歧视、性别歧视等等,因此他不能回答你,随后还循循善诱地反过来“规劝”你要注意尊重他人。而我们人类对于AI的恐惧,很大程度不就是来自他们“超能”的同时而且“无忌”吗?

Chat GPT何时会取代“懒人”?

如果说,AlphaGo只是洞悉了棋规,遍记了棋谱,并开始创新了棋术乃至棋理,但依然属于“能力”的范畴,那么Chat GPT则已打破了专业,超越了理工,并开始形成了风格乃至操守,则已然进入“魅力”的范畴。如果说AlphaGo在求真,而Chat GPT已开始求善与求美。

在日前“第30届中外管理官产学恳谈会”上,人工智能专家马维英教授就感慨:如今博士生写论文,第一时间已不是去问他们的博导,而是先问Chat GPT了!他旋即收起调侃,很认真地对与会企业家指出:“科学研究工作,未来AI都是可以代替人去做的。”

如果像牛顿那样的“科学家”都是可以被机器人取代的,那么――我们这些整天呕心沥血且忧心忡忡的“管理者”乃至“创业者”,又将何时被取代?

事实上,当前很多初级艺术类岗位,已经不需要人工再去“磨磨蹭蹭哼哼唧唧反反复复”地做了,Chat GPT的“多快好省”,已成现实。一些动漫公司开始大裁员,已不是新闻。因此,我们管理者在为未来我们自身饭碗担心的同时,可以首先警告我们麾下的被管理者:“你们可以继续混日子的日子,真的混到头了!”再倾斜偏袒的《劳动合同法》,未来也保护不了那些没有主动性、没有创造力、没有利他心的“伪脑力工作者”。

对于“懒人”,“狼”真的来了。人,只有真正成为“*”的“人”,才能确保拥有自己。

当然,99度热水现在还差1度。在我和Chat GPT热络聊天的收尾,我对他由衷地说了一句:“谢谢!”这时奇迹出现了――他居然“懵了”!闪烁着发愣,不知所措。

但相信很快,懵懂不知所措的,将是我们人类。


snapchat effects snapchat filters

snapchat国内能用吗,snapchat相机,snapchat注册不了,snapchat怎么玩

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

  ChatGPT能帮忙做副业、写论文,但为何还是取代不了人类?

  来源:真故研究室

  文 | 林秋艺

  编辑 | 龚   正

  ChatGPT已经在科技圈火热一月有余,但仍有很多大众关心,ChatGPT于个人的职业、学业有何价值、自己该如何与ChatGPT时代相处。

  也有很多人脑洞大开提问,ChatGPT能帮自己做副业吗?能成为自己的良师益友、解决自己的精神内耗吗?另外也有瞧不上ChatGPT的声音。前一阵,ChatGPT连小学数学题都算不对的新闻也传播了一番。一些家长形成了先行印象,认为这哪里算得上AI。

  对此,我们对话了中国计算机学会科学普及工作委员会主任助理崔原豪博士。他也是电影《流浪地球2》中人工智能领域科学顾问。请他分享了ChatGPT的诸多硬核洞察。

  崔原豪的核心观点如下:

  1、AI替代的不是人类,而是不会使用AI的人类。关注ChatGPT的原因在于,我们应该了解将来如何使用ChatGPT相关的AI产品去提升自己的工作效率,这是未来工作中的最优选择。当世界在进步时,一成不变就将形成数字鸿沟,从而影响自身发展。

  2、机器在计算能力上会高于人类,但机器智能始终无法如人类智能一样思考。迄今为止,还没有发现AI有超越人类智能或者企图反叛人类的苗头。评价机器是否智能只有通过图灵测试,但真正完备的图灵测试无法实现。

  3、ChatGPT目前还无法分辨信息的真实性。下一步,需要在数据层面集中增加更多关于世界常识的标注数据;在它原有的记忆上更新,因为随着时间的进程,某些事实和知识都会发生变化,它需要不断更新。

  以下为对话实录:

  Q1:您第一次接触ChatGPT是什么时候?使用体验如何?

  A1:大概是在2个月前,第一次使用了ChatGPT。当时用它做了一篇英文论文的润色,让ChatGPT帮我推敲其中的语法,结果超乎我想象的好。

  我告诉它:你现在是一个英语翻译家,我希望你把我说的话翻译成优雅且简练的英语句子,不要作过多解释,也不要改变它的原意。

  这里每一个“要”或“不要”都是一个指示。在这几条指示的要求下,它就会把你输入的一段英语文本变得更加优美简洁。

  这比以前用的Grammarly(英语语法检测)润色出来的效果好很多。专业性上,ChatGPT会做很多专业术语的替换,这是之前的语法检测工具很少能做到的;文法方面,被它替换后的词汇和语法相较之前会更优雅一些。

  Q2:现在对ChatGPT的复用率如何?

  A2:最近更多的是用它来做论文润色、英语翻译或其他语言翻译,有时候也会逗它玩一会儿。

  它的使用过程还是挺有趣的,像是工作助手,大幅度地减少了我的工作时间,提高了效率。

  Q3:请教一个根源性的问题,在人工智能中,大语言模型扮演着怎样的角色?

  A3:要了解大模型的角色,我们首先要了解机器如何评价一段文本的好坏。

  举个例子,《流浪地球2》里有一句经典台词“我相信人类的勇气,可以跨越时间,跨越每一个历史、当下和未来。”

  假如我把句子顺序调整一下,“我相信勇气的人类,可以跨越时间、当下、未来,跨越每一个历史。”大家会觉得有一点奇怪,但还是能听出来我说的是什么意思。

  但当我把它整体打乱,变成“人类勇气未来,时间当下跨越每一个,可以我相信的历史”,你就会觉得无法理解。

  我们会觉得第一个句子非常合理,最后一个不合理的原因是,在我们人类所有的语言里,最后一个句子出现的概率非常低。

  从统计角度来看,在“人类语言模型”里,第一句话发生的概率最大,第二句话次之,第三句话几乎不可能发生。这就是文本合理性的量化。

  机器就是在它的训练集中,获得文本合理性的量化指标。如果训练集足够泛化到含括所有的语言模型,那么机器就有资格评价这段文本是不是符合人类语法。

  当你让它生成一段新的文本时,它会按照人类最常用、最喜欢的方式生成,从语法结构上来看,你会觉得它说得很有道理,但事实层面却不一定对。

  也就是说,语言模型本身就是自然语言处理的一个领域基石。

  语言模型的好坏,决定了整个下游任务处理的好坏,因为是它在评价语言是不是合理。如果刚开始评价指标就错了,那么后边的所有东西都会变成错的。所以语言模型是根本。

  Q4:有声音认为,ChatGPT是一个颠覆式的创新,它的颠覆性体现在哪?

  A4:我个人觉得颠覆性其实体现在,它变成了一个可以直接面对用户的产品。

  以前大家做大模型的目的,第一是可以完成更多的自然语言处理任务,第二个是可以在每个细分的载源处理任务上可以去刷新,去达到更高的进度。包括谷歌的大模型、微软的大模型,还有智源研究院的大模型。

  但是很少有人去站在用户的角度去想:我们是不是可以去做一个大家都可以用得起来的人工智能产品。

  以前所有的人工智能产品,比如小冰、小爱同学,或者是手机里边的图像处理、图像增强的算法也都是内嵌在其他产品里边的,并没有真正打包成一个完全的人工智能的产品去卖给用户。

  现在ChatGPT就是每个人都可以用得起来一个产品,大家都可以接受他能做到什么程度,而且它还可以接入更多人工智能的算法,包括图像和视频领域的算法。

  Q5:许多用户实测之后发现,ChatGPT在与人沟通上虽然已经相当地智能化,但有时“也会一本正经的胡说八道”,从技术角度上看,造成这一结果的原因是什么?

  A5:主要原因是ChatGPT还不懂什么是“事实”。

  ChatGPT的训练过程第一步是预训练。预训练是采用无监督训练的方法,也就是把网络上的数据包括其他的东西,交给它来进行自我训练。

  这造成的一个结果就是,它不知道这些东西哪一个是真的,哪一个是错误的。

  因为预训练模型是一个语言模型,它的主要目的是去了解人类的语言习惯,包括单词之间的构造关系,只要学足够多的文字语料,这些语义信息都是可以被抽取出来的。

  但是抽取出来的关于世界的常识,它自己是无法评判真实性的,需要人类来进行标注。

  下一步,如果它要变得更能分辨事实的话,就需要再加入很多关于世界常识的标注数据,人类需要对哪一些是真的世界常识去做标注。

  另外一个,它需要做一个记忆上更新,因为有很多事实是冲突的,随着时间的进程,某些事实和知识会发生变化,它需要不断更新。

  Q6:ChatGPT接下来应该在哪些方面做改进,来变得更为智能?

  A6:这个还是要从智能本身的定义来想,什么叫“智能”?

  我一直觉得在这个领域里边没有一个普适的评价基准,去评价机器或者大语言模型本身的能力。现在是根据每一个细分任务去评价它的准确度,但是准确度其实跟智能没有太大关系。

  要评价它是否智能就需要通过图灵测试,但是真正完备的图灵测试是实现不了的,因为它要求的是人与机器不断交互,这是一个无限长的过程,基本上无法实现。

  如果是限定时间内,人和机器的交互,其实是有可能会被机器骗过去的。

  比如,你和一个大语言模型聊5分钟,如果话题比较窄,可能你就会觉得它已经达到人类的标准了。

  但是如果你跟它聊得非常宽泛,把范围扩展到它未曾接触过的领域,或者你跟它聊大概一个月左右,你可能就会觉得它确实不是一个人。

  所以,如果是从标准的测试层面来说,现有的大语言模型应该都无法通过测试。

  Q7:像人脑一样去思考和创造,是否是科学界对ChatGPT定性的终极目标?

  A7:大方向上是朝着“人脑”这个方向努力的,但是在真正的研究过程中其实反而没想这么多。

  比如,在ChatGPT的研究过程中,最开始的时候机器是需要人的提示的,你需要给它一个例子,它会按照这个例子把你想要的内容生成出来,但是现在已经演变到你直接给它下命令,它就能生成的程度。

  所以,实际上它确实是在朝着一个既定的目标去研究的,但是这个既定目标可能并不一定是为了更智能,也可能是为了让它变得更容易使用。

  Q8:人类随年龄越长越充满智慧,ChatGPT也会随着年限增长,变得更聪明吗?

  A8:我觉得这个不一定,因为知识是需要更新的。

  人类大脑有一个遗忘的功能,这非常重要,因为大脑的储存容量是有限的,现在我们每天都会接收到很多的信息,从视觉、听觉、嗅觉,包括皮肤都可以接受到非常细微的刺激。

  人类的大脑有注意力机制和遗忘机制,我们会注意到我们感兴趣的信息,也会遗忘掉很多细节信息。这两个机制保证了人类大脑不会被过多的信息冲垮。

  对于大语言模型来说,现在注意力机制已经有了,但遗忘机制还没有。

  现在的大语言模型还只是一个“新生”的阶段,它的训练并不是像我们人类在现实生活中实时训练,而是在训练之后使用一段时间,然后再更新、再训练。

  在使用过程中训练是我们人类独有的能力,而大语言模型无法在使用过程中训练,这也是未来大语言模型需要解决的问题。

  Q9:有声音认为,国内模型开发公司的研究进度要比海外公司落后2年左右,这个观点您认同吗?差距主要在哪?

  A9:我个人觉得大家都比Open AI要落后2年,不只是国内,国外其他公司也一样。

  因为Open AI选择的这条路线,在ChatGPT发布之前,大家都觉得它只是一条路线而已,都不觉得它会是一条通往未来通用人工智能的标准路线。

  ChatGPT出现之后,现在注册用户已经超过1亿了,这是以前从来没有过的一个数字。这个现象让大家觉得,朝这个方向做通用人工智能是完全有可能的,而且ChatGPT也展示了潜力。

  Q10:现在入局的互联网科技公司,您认为哪些或者有哪些积累的企业具备做出高质量ChatGPT的实力?

  A10:现在做自然语言处理的初创公司有很多。

  像智源研究院、百度这样的互联网科技公司,阿里巴巴、京东这样的传统互联网公司,都具备做出类ChatGPT产品的能力。

  还有知乎,大家觉得它会成为未来类ChatGPT产品的基础语料库,这会给知乎带来很多流量。

  Q11:我们已知ChatGPT会对搜索引擎产生较大的颠覆作用,除此之外,还会颠覆哪些赛道?

  A11:下一步应该就是图像和视频。据我所知,现在也有很多关于图像和视频的大模型,只不过它们并没有像自然语言走得那么靠前。

  基于ChatGPT 这个大模型本身会有很多衍生产品,未来它可能会成为一个基石,跟各行各业的需求结合起来。

  Q12:ChatGPT的算力对芯片提出了巨大的挑战,目前我国的芯片技术能否达到ChatGPT的算力需求?

  A12:目前国内的芯片技术肯定是比国外要弱一些。虽然会比国外弱一点,但它不是决定因素。

  我们说,如果智商不够,也可以靠数量来凑。ChatGPT的算力需求,国内的芯片还是可以达到的。

  其实高端芯片的困境,不太会影响类ChatGPT在我国的开发,能做大模型创新的公司其实很少,也就是几个主流的互联网公司,像百度、华为都有自己的芯片体系,这对他们来说应该不是大问题。

  但是芯片也等于是算力的价格,假如芯片便宜,那么在后续运行大模型时,它的成本就会比较低,现在可能看不太出来,以后就会成为一个重要的竞争力,因为未来每个公司都在做类ChatGPT产品,那么成本就是一个重要的考量标准。

  Q13:该如何认知类ChatGPT产品之于我国互联网产业的战略意义?

  A13:从自主可控的角度来讲,国家会需要有属于自己的大模型。

  我国现在已经有了大模型,虽然跟国外有差距,但是差距并不是特别大。

  研发类ChatGPT的产品,这是一个值得去战略思考的,需要去做战略储备、战略决策或者战略指引的一个事情。

  Q14:作为一个普通人,我为什么要关注ChatGPT?ChatGPT未来会取代我的工作吗?

  A14:AI替代的不是人类,而是不会使用AI的人类。

  我们要关注ChatGPT的原因,在于需要了解以后应该怎么使用ChatGPT相关的AI产品去提升自己的工作效率,这是我们以后工作中的最优选择。

  产业革命、工业革命之所以是革命,就是因为它对我们每个人的生活都产生了影响,比如以前的蒸汽机、电力、互联网,现在没有人不使用它们。

  AI技术被我们认为是一个新的工业革命,原因也是一样。

  所有人的生活,都会因为AI产品本身或者是AI衍生的其他产品而产生改变。当所有人都在进步,只有我们一成不变,形成数字鸿沟,那么受到影响的就会是我们自己。

  但同时,AI并不一定能替代人类工作,现在我们也可以看到,它的精确度并不是很高,它还存在很多问题,如事实性、时效性和理解程度。

  所以应该做的不是焦虑、恐慌,而是跟上发展的浪潮,主动了解ChatGPT,以便更好地使用。

  Q15:用ChatGPT搞副业行得通吗,比如帮写网文?

  A15:不能说完全不行,但要用它写出充满可读性的网文,需要比较精心的引导,目前还达不到给它一份大纲,它就能生成非常完美的一篇网文的程度。

  现在的情况更多的是,我们给它大纲,然后它生成一篇充满套路的文章。

  也就是说:华丽的词藻,但是空洞的思想。

  未来互联网上的信息会更加膨胀,大家会更偏向看有质量的东西,那么ChatGPT生成的充满套路的文章肯定是行不通的。

  Q16:人类应该以怎样的正确态度来面对ChatGPT?

  A16:AI首先是一个工具。从这个角度上来看,我们应该考虑到,工具和技术本身没有善恶,但它的使用角度可能会有问题。

  而且,人工智能这样一个工具,严重地依赖它的数据,还有它的生成过程。所以我们希望人类本着负责任的态度去使用它,这样大模型生成的内容也是相对负责任的。

  另外一方面,就是我们日常担忧的AI问题。

  最近也有一些人在谈论,ChatGPT这类大语言模型,除了现在的仿造能力,将来会不会涌现其他新的能力,比如逻辑思维能力,这是今年热度很高的一个问题。

  这也是我们目前正在研究的问题,如果有一天它真的出现逻辑思维的能力,或者开始出现类似于小孩的心智,那么可能会变成一个比较严重的问题。

  但迄今为止,我们还没有发现AI有超越人类智能或者企图反叛人类的苗头。

  Q17:新技术的风险一般伴随着法律和伦理上的讨论。ChatGPT的风险主要体现在哪些方面?

  A17:这应该是对大模型的普遍担忧。

  第一个就是,数据公平的问题。有很多模型的训练集本身就没有公平,导致它产生的结果就是不公平的。

  第二个是,它的答案可能是有害的。目前ChatGPT已经对很多领域都已经做出了限制,我们很少能看到有害的问题和有害的答案。但是如果有新的模型,它们可能没有做出限制,就很难避免。

  第三个是,现在AI界在强调的,我们要做负责任的AI。AI只是一种技术,但作为技术的生产商,需要让这个技术对人类负责任,它的每一个决定都不能随意。

炒股开户享福利,送投顾服务60天体验权,一对一指导服务!
海量资讯、精准解读,尽在新浪财经APP

责任编辑:刘万里 SF014