刘慈欣如何看gpt gpt 刘慈欣
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
最近,刘慈欣在直播时透露,自己实在没时间,所以参加科幻大会时用 ChatGPT 写了一两篇发言稿。
刘慈欣表示,ChatGPT 写得也还挺不错的。
此前刘慈欣发表了一篇题为《科幻文学中的可持续未来》的演讲,用科幻的视角解读了一个截然不同的人类未来。
何为科幻视角?从距地球 60 亿公里的太空之上,回望这颗比尘埃还小,却又承载了和我们有关的一切的星球,即为科幻视角。
在演讲结束后,刘慈欣谈到了以 ChatGPT 为代表的人工智能可能会给人们带来的影响。
2015 年,刘慈欣曾在一次采访中引用了霍金的观点,霍金曾预言「人工智能比核弹还危险,人类马上就要被人工智能控制」,当时的他认为这个说法有点危言耸听。
而现在,他认为我们是时候对未来有所警觉。
划重点
1. 人工智能会首先取代高智能的职业,这与我们的预测相反。
2. 人工智能可以自我迭代出更高智能的版本,但我们的算力限制它的发展。
3. 人工智能或许会让人类陷入舒适的陷阱之中。
Q:现在 ChatGPT 横空出世,被人们热烈地讨论,您觉得人工智能的发展对人类的命运会产生一个什么样的影响?那自我迭代的人工智能有没有可能会取代或者说消灭人类?
我觉得这(人工智能的影响)应该从这个现实或近未来和比较远的未来这两点来看待。
从我们近未来或甚至从我们现实来看,人工智能它对我们社会世界的影响我相信大家已经都看到了,它现在已经产生一个很明显的趋势:(人工智能)有可能在代替我们人去从事很多的工作。
这个应该说是一个正面的趋势,这种趋势它可以提高我们的生活质量、提升人类的幸福感,让我们的生活在科技的加持之下可能变得更加舒适。
但是另一方面我们也不能不正视,人工智能的发展给人类社会带来的冲击。
首先,最明显的一点是人工智能可能会代替相当多的「人的工作」,而且这个趋势与我们以前的预测正好相反。
以前我们预测认为人工智能首先代替的是那些简单劳动、重复劳动的那样的工作,但是现在看来正好相反,人工智能可能首先代替的是那些需要高智能的、很高的教育程度的那样的工作,比如像医生、教师、股票经纪人等等这些工作可能是被首先代替的。这其中可能也包括我们作家也可能首先被代替的。
所以说人工智能对于人类的整个世界的发展来,它的影响很深远。我们再往层次再高一些的话,人工智能可能会对我们世界中相当多的比较基础的东西可能会产生重大的影响。
比如它会对文化艺术、文学,对这个人的创造力,对人的对世界的认识等等可能都会产生重大的影响,甚至可能让这一些东西都会被重新定义。
当这个人工智能现在已经开始介入到我们的科学研究之中,介入到我们对整个世界规律、对自然规律的认识之中,介入到对人类发展规律的认识之中,它可能产生的影响十分的深远。
当初人工智能在围棋领域战胜很多优秀的围棋选手的时候,有一位我们国内最出色的围棋选手说了一句话,让我印象很深刻。
他说中国的围棋博大精深,有两三千年的历史,积累了深厚的这个理论和经验,甚至围棋本身成为一种文化,具有了很深的禅意,但是就在这一夜之间,我们发现它的一切全是错的。
这一个说法确实很令人震惊,这件事情会不会发生在别的领域我们不知道,如果广泛发生的话,那么人工智能对人类文化文明最深层的影响我们是不可忽视的。
下面我回答您的第二个问题,就是说人工智能是否会把这个会消灭人类,这也应该分两个层次来回答。
第一个层次就是这种字面意义上的消灭,就是人工智能用某种暴力从肉体上完全消灭人类或是统治世界。
这一点从目前的这个技术发展趋势来看,特别是从目前的技术水平来看,在可以看到的未来可能性不是太大。
当然您刚才提到一个很有意思的概念叫迭代。人工智能的迭代,这是目前人工智能最可能出现危险的一个行为。
这个行为是什么呢?就是说当人工智能按我们现在的发展,它比人类的智能稍稍高一些的话,它自己也会像人类一样去创造新的人工智能,它创造出来的这个新人工智能可能比它的智能也稍微高一点,那么它又会接着迭代下一代,这样的话他们就会很快的把这些人工智能的智能水平提高到很高。
可能迭代下去,会提高到人类(智能)的几百倍甚至上万倍。
而它而由于它的这个计算机的计算时间比这个人脑人的大脑要快成千上万倍,那么这个迭代的时间可能十分的短,据推测可能只有半个小时到一个小时。
就说我们把人工智能发展到现在用了一个世纪的时间,而人工智能百倍于现在的这个程度,可能只用半个小时到一个小时,这是很可怕的一件事。
但是做出这个预测的人忘了一点,就是我们人类的计算能力,我们所能提供的算力是有限的。它的迭代到一定程度,我们的算力不(能够)支持它。
所以这就是一个有很讽刺意义的一件事情:我们人类的无能反而成为我们一个最后的屏障。所以您说的这这种毁灭不太可能。
那么第二种消灭则是一种我们想不到的一种方式,就是说第一种消灭人类是完全违背人类意愿的,而第二种对人类的消灭可能完全符合我们的意义。
比如说人工智能的发展,我刚才说过它可能会代替我们的这个大量的工作,而我们的社会如果适应了与人工智能的这种共存,我们发展出一种新的这种分配制度,那么我们就可能带来一个十分舒适的那种社会环境和十分舒适的生活。大部分人可能不需要工作,把大部分的工作都交给人工智能来进行。
在这种情况下,我们会越来越多地交出自己对社会运作的操作这种权利给到人工智能。
而生活会变得越来越舒适,那么这个样子下去的话,我们可能面临着人类历史上前所未有的一个巨大的陷阱。
就是说在这个科技的这种安乐窝里面,那么人类文明的活力在哪里?我们的开拓精神在哪里?如果这样一直发展下去的话,那可能人类最后的命运就是您说的被人工智能所消灭,但这个消灭的过程完全是在我们的意愿之内,而人工智能至始至终它没有任何恶意,它只是照着人类的指示去行驶。
而这样的如果真的发生这样的事,那人工智能所需要的它的智能程度以及它所需要的计算能力远远小于我们前面那个真正的字面意义上的那种消灭。所以这确实是我们应该对未来有所警觉的一件事情。
刘慈欣演讲全文整理
大家好,我们今天要谈论的话题是科幻文学中的可持续未来。
作为一种基于想象力的文学形式,科幻小说并不能够对未来作出科学的预测,它只是描述未来的各种可能性,同时它也提供了一个看世界和看未来的独特视角,这个视角与我们从现实看世界看未来的视角可能有很大的不同。
《暗淡蓝点》
科幻的视角是什么?大家可能都知道一张叫《暗淡蓝点》的照片,我本来想把那个照片拿来的,但我觉得好像大家应该都看过那张照片,就没有把它拿来放出来。
这可能是人类历史上最重要也是最著名的照片之一,他是上个世纪 70 年代发射的旅行者 1 号宇宙探测器,在 90 年代初在距地球 60 亿公里的太空中拍摄的。
初看上去整张照片它都是黑色的,很仔细看才能发现这一片黑色中有一个小小的亮点。它十分的小,就是仅有这张照片的 0.12 个像素那么大。如果不加以指示,你说观看者是很难发现这个白点的。
有人形容它是太空中的一粒尘埃,其实是把它说的大了。按照比例计算,这个暗淡的小点放在宇宙中,它比地球大气层中的一粒尘埃还要小很多个数量级,要小得多。这个亮点就是地球,人类世界的全部,和我们有关的一切,所有活着和曾经活过的人,所有曾经有过和正在进行历史和生活,都在这里尘埃上面,这就是科幻的视角。
对于人类的发展和未来,这个视角与我们传统的视角是有很大差异的。从这个视角去看,我们对人类社会的可持续发展会有一些新的感悟。
首先,目前可持续发展所依赖的基础环境保护,阻止全球气候变化、对资源开采的节约和节制、基于环保的绿色生活方式等等,其重要性是无需质疑的。在可以想见的未来,坚守并贯彻以上的理念是人类文明得以延续的基本保证。
但是从科幻的视角看,从 60 亿公里外,看一看那个暗淡的蓝点,我们就真切地感受到,人类世界在宇宙中是多么的渺小。
对于文明的发展,这样一个小世界存在着天然的脆弱和不确定性。这些脆弱和不确定性极大地影响着人类可持续的未来。对发展的威胁,它很可能来自发展自身。世界正走在现代化的进程中。尽管近年来遇到了包括疫情、局部战争、国际社会分裂和对抗加剧这些挫折,但从长远的大趋势来看,现代化的进程不可遏制。
现有的不发达国家和地区全面达到西方的发展程度和生活水平并非遥不可及的事,而如果全世界都进入这样的发展状态,我们粗略估算一下,人类将需要 4 个半地球的资源。所以,要实现人类真正的可持续发展,我们必须找到另外 3 个半地球。
另外也是更重要的就是未来的不确定性还来自地球自然界本身。地球生态系统是一个极其复杂的系统,处于不断的波动之中。
例如在漫长的地球历史中,在地球的地质纪年中,大气温度上升或下降几度,从这个地质纪年的尺度来看那是一件很平常的事。但是对于现代人类社会来说,却可能是灭顶之灾。
地球平均气温上升几度,就会因冰川融化导致海平面全面上升至使沿海地区、沿海经济区被淹没,大量人口向内地迁移,进而造成世界经济的混乱和崩溃。
而地球平均温度下降几度将导致全球农业体系的崩溃,是世界处于大饥荒之中。就在现在人们担忧过量的碳排放导致气温上升时,却很少有人注意到地球的下一个小冰期可能正在到来。在地球这样一粒宇宙尘埃上,生态圈的长期的稳定,它只是一种幻觉而已。
为了应对未来的种种不确定性,人类社会将在政治、经济和文化等方面作出不断的努力。但这也是从我一个科幻作家的这个角度来看,我们最终所能依赖的力量还是来自于科技的进步。
首先,在地球的生态空间之内,技术的进步可以开发出全新的资源。在历史上,煤炭、石油和核能取代了木材,合成材料取代了棉花和皮革。在未来,科技的进步能够带来更加高效和环保的能源,能够从之前从未利用过的自然资源中产生出新的材料,能够培育出适应各种气候的高产农作物。
无论是在未来变化的地球环境中生存下去,还是努力阻止地球环境发生变化,都要借助科技的力量。如果从地球向外看,我们就看到了一条更为广阔的发展之路。太阳系中有着巨量的资源,在八大行星上,在小行星带中,人类生存和发展所需要的资源,从水到金属,从有机物到核聚变材料到核聚变燃料应有尽有。
我们能够从太阳系的太空中找到的远不止 3 个半地球,按照地球最终可以养活 1000 亿人口计算,那么太阳系中的资源总量可以养活 10 万个地球的人口,一个人只有走出摇篮才能实现可持续的成长,而人类文明作为一个整体,要想拥有真正的可持续的未来,也必须走出地球这个摇篮。
否则的话,人类的未来就有可能像阿瑟克拉克在科幻小说《2001 太空奥德赛》中描述的那样,在一片丰饶之中他们慢慢饿死。
这两个方向的可持续发展都是以科学技术的不断进步为基础的,在这方面人们面对的现实并不是很乐观的。我们现在所处的这个年份就是 2023 年,曾经无数次在科幻小说中出现。
对比一下以往的科幻小说中的 21 世纪 20 年代和我们现在已经变为现实的 2023 年,我们能有的也只是一声叹息。
在科幻小说中的 2023 年,地球的同步轨道上运行着宏伟的太空城,月球像地球的近邻近郊一样繁荣,在火星上已经建成多处人类知名城市,生活着数以百万的人,在小行星带进行着大规模的矿业开发。在木卫一的冰封海洋上,在海王星的轨道之外,都有人类开拓新世界的身影。太空航行已经普遍使用核动力飞船,拥有着现在的化学动力飞船所不可比拟的运载和续航能力。
在那个 2023 年,也就是在科幻小说中的 2023 年,他们所展望的 2023 年, 10 万个地球正在诞生之中。谈到可持续的未来,这应该是一幅符合逻辑的图景,但在现实的 2023 年中,我们确实还看不到这幅图景的影子。
在现实的 2023 年,唯一与科幻小说中对这个年份的想象相近的是信息技术的发展。在过去的 30 年,信息技术以远超其他技术的速度越近,信息网络已经渗透到人类社会的方方面面,全面而深刻地改变着我们的生活。
特别是近来人工智能开始有了取得突破的迹象,也引起了广泛的关注。科幻小说中无数次描述过的 21 世纪强人工智能,它已经现出端倪。
但正是信息技术的快速发展,掩盖了其他科技领域进步的缓慢,造成了科技全面飞速进步的一个假象。如果把科学发展产生的技术进步看成是一棵大树的话,那么在今天,这棵树上最容易够得到的果实都已经被摘光。
科技进一步的发展和突破需要巨大的投入和长远的规划,而这一点在目前对可持续发展所持的理念上似乎并没有被放到最重要的位置。
目前世界各国对于基础科学研究和航天探索的资金的投入,只有对环境保护事业投入的 1/ 10。现在对可持续发展的规划是建立在环境保护、节约资源和建立绿色生活的基础上。但要得到一个长远的、真正可持续的未来,我们还需要更多的开拓精神和进取精神。
国际社会需要更长远的发展规划,需要对基础研究和技术创新全力关注和投入。在这方面的很多事业可能只有大范围的国际合作才能完成,联合国无疑能够在这方面发挥重要的作用。
科幻小说描述了未来的多种可能性,用想象力构建了无数个未来世界。他们色彩各异,形态万千,但都有一个共同点,那里的科学技术已经发展到了很高的水平,借助于科技的力量,人类能够为自己开拓更加广阔的生存空间。这无数个想象世界中的一个将变为现实,成为我们的未来。
也许在那样的世界中,人类仍然会面临来自社会发展和大自然的更多的挑战,我们也必须接受未来的挑战,用发展来解决发展遇到的问题。最后,对于人类可持续的未来,引用科幻作家乔治威尔斯的一句话:
要么遍布宇宙,要么彻底灭亡。声明:转载此文章是出于传播行业资讯、洞见之目的,如有侵犯到您的合法权益,请致信:【【邮箱】】,我们将及时调整处理。谢谢支持!
-END-
本文转载自:AI技术指南转载编辑:PickeyChatGPT 最新路线曝光:不是GPT-5,要做变革打工人的超级贾维斯
chatgpt官网,chatgpt下载,chatgpt怎么用,chatgpt怎么注册高歌猛进了半年的 ChatGPT,最近沉淀下来了。
数据显示,ChatGPT 访问量增速连续三月下跌。
其实直到现在,也没有那么多人知道 ChatGPT。
前段时间,科技媒体 The Verge 和咨询公司合作,调研了 2000 多名美国成年人,了解他们对生成式 AI 的看法,结果有些出人意料。
▲ 图片来自:The Verge
ChatGPT 虽然知名度最高,但也就 57%。你追我赶的 New Bing 和 Google Bard,甚至没有过半。文生图的两座大山,Midjourney 和 Stable Diffusion,都只有 20% 多。
更别说真正用过这些 AI 的人了,他们只占到了三分之一,主要是千禧一代和 Z 世代。
人类似乎迎来了稍事休息,巨头之间的竞争也进入了静水流深的状态。
生成式 AI 届「初代网红」ChatGPT,接下来该做些什么?
最近,The Information 的一篇报道,给出了一个可能的答案:你的职场个人助理。
我们不是已经用 ChatGPT 写代码、开脑洞、做各种事了吗?OpenAI 官方想做的个人助理,可能有些不一样。
先来划个重点:
- ChatGPT 个人助理的作用:提高生产力和创造力
- ChatGPT 个人助理的目标:让盈利多一种可能
- ChatGPT 个人助理的难题:信任危机和虚假信息
- ChatGPT 个人助理的背后:和微软亦敌亦友的 OpenAI
https://www.theinformation.com/articles/openai-plans-chatgpt-personal-assistant-for-work-setting-up-microsoft-rivalry?rc=【【微信】】 以下是原文编译,为了阅读体验,爱范儿做了不改变原意的编辑――
短短半年,ChatGPT 成为了全球知名的互联网品牌,OpenAI 有了一个更大的计划:
让 ChatGPT 成为「超级智能的办公个人助理」。
上个月,身在伦敦的 OpenAI 首席执行官 Sam Altman,向部分开发人员透露了这件事。
提高生产力和创造力
ChatGPT 个人助理的基础功能不言自明,像是起草邮件、回复信息、总结会议。
与此同时,它将基于个人和职场的内部信息,执行各种任务,包括学习本人风格写文件,提供有关业务的最新动态等等,相当于在入门级功能之上,变得更加个性化。
另外,OpenAI 内部还在关注一件事:开发人员如何使用 ChatGPT 创建 AI 代理。
当人类设定好目标,AI 代理会主动提出并执行各种任务,尽力将这个目标完成,所以又叫「自主人工智能」或「AI 智能体」。
举个简单的例子,当目标是增加软件的销量,其中一个任务可以是生成联系种子客户的邮件模版。
由 GPT-4 驱动的 AutoGPT 就是这样一个项目,在今年 4 月大火。ChatGPT 个人助理,也可能这么独立和自觉。
OpenAI 本月初的一项招聘,或许也和 ChatGPT 个人助理有关,给了旁观者们更多的猜测空间。
前 Facebook 高管 Peter Deng 加入了 OpenAI,担任消费产品副总裁。
他是 Facebook Messenger 首位产品经理,当过 Instagram 和 Uber 的产品负责人,也曾在生产力软件公司 Airtable 任职。
这位新晋高管在领英提到,OpenAI 希望开发「提高人们生产力和创造力的辅助功能」。
让盈利多一种可能
虽然 ChatGPT 搅弄风云半年多了,但到底怎么用它赚钱,哪种产品和商业模式可能创造最大价值,包括 OpenAI 在内的大多数公司仍在初试锋芒。
先行一步的微软,推出基于 AI 的 Office 365,将阅读文档、制作 PPT、总结会议、撰写邮件等工作自动化,并计划向客户收取 40% 的溢价。
OpenAI 通过 API 出售对大语言模型的访问权限,推出针对企业的产品和服务。
付费的 ChatGPT Plus,订阅人数超过 200 万,预计每年为 OpenAI 创造数亿美元的收入。
OpenAI 还在考虑开设针对 AI 应用的「App Store」,让企业便捷获取经过精细调试的大语言模型应用,如起草营销材料的 AI、识别金融*的 AI、提供客服功能的 AI。
OpenAI 甚至计划推出一个新的开源大语言模型,跟上 Meta Platforms 等竞争对手的脚步。
所以,开发 ChatGPT 助理,也将是 OpenAI 商业化的一种可能性。
信任危机和虚假信息
开发可靠的个人助理,OpenAI 需要下很多功夫。
目前,用户通过网页或 app 访问 ChatGPT,所有计算都在微软的云端进行,由英伟达的芯片驱动。
如果希望响应更快速、更个性化,成为新时代的苹果 Siri,ChatGPT 个人助理可能将部分部署在用户设备上。然而,将 AI 模型缩小但又不至于牺牲质量,不是立刻能够实现的。
让 AI 实现个性化,个人数据也不可或缺。所以,OpenAI 还应获得用户的许可,拿他们的个人数据训练 AI,包括邮件、联系人、文档等信息。
在这方面,OpenAI 或许可以参考微软、Google,它们开发了很多生产力软件,允许外部开发人员在用户明确同意的情况下使用数据。
AI 个人助理的市场究竟多大,没人能够给出准确数字,隐患却已经出现。
一是信任问题。相比于购买 OpenAI 的服务,有些公司更愿意使用开源 AI 模型,开发自己的助手,在自己的服务器上运行,也就没有了向 OpenAI 泄露敏感数据的风险。
默认情况下,ChatGPT 吸收的任何信息,都会成为数据库的一部分。
虽然在今年 4 月,OpenAI 推出过数据使用的新规则:用户可以关闭聊天记录功能,避免个人数据被官方拿去训练。微软也向企业客户提供价格更高的产品,确保数据不会被吸收到公共 AI 模型中。
二是虚假信息。ChatGPT 有概率生成错误答案,这已经是老生常谈了。
因为种种技术挑战,加州大学伯克利分校人工智能教授 Ion Stoica 认为,开发高度个性化的 AI 工作模型,至少需要几年时间。
和微软亦敌亦友的 OpenAI
开发个人助理,可能会让 OpenAI 和很多公司产生冲突,包括盟友微软以及它的客户。
因为它们都在基于 OpenAI 的技术,构建类似的服务。
微软的 AI「副驾驶」不必多说,它一直在研究如何利用 OpenAI 的通用模型,开发更加个性化的 AI 助手。
另外,不少购买 OpenAI 服务的客户,其实也怀着同样的心思。
软件服务提供商 Salesforce,已经推出了基于 OpenAI 技术的销售软件,其中一个功能就是帮客户起草邮件,只需提交公司和产品名称。
就算没有 OpenAI,如果开源的大语言模型继续进步,开发人员或许也能创建自己的助手。
初创公司 Personal AI 就是一个例子,它训练了开源模型和自有的大语言模型,模型还足够小,可以完全在笔记本电脑或手机上运行。
Personal AI 希望,他们的软件通过了解用户的个人数据,起到替代人类开会、自动回复工作消息等作用。
再说回微软与 OpenAI,它们属于相互依存又彼此竞争的关系,目标客户也高度重合,不仅体现在 AI 助理这方面。
微软曾经表示,企业应该通过微软购买 OpenAI 的服务,因为微软提供了额外的功能和安全保障,比直接从 OpenAI 获取还要更好。
不过,就算真的针尖对麦芒,它们的协议也不允许分道扬镳。
微软首席财务官 Amy Hood 最近提到,微软永久拥有 OpenAI 通用大语言模型的访问权限,如果 OpenAI 未来盈利了,微软也将分到很大的蛋糕。