庆云古诗词

庆云古诗词

专访|施展:数字空间的崛起与人类的未来

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

数字 空间,数字空间概念,数字空间技术,数字空间科技

上海外国语大学施展教授2018年出版了《枢纽:3000年的中国》,从历史哲学的视角梳理中国历史演进的逻辑,引发了相当大的争论。今年,本书推出了增订版,在增补的《未来秩序导论》一章中,施展教授对近几年来政治、经济、科技等方面的剧变,如传统秩序的重构、数字空间的崛起等,做出了自己的分析、判断和解读。在接受澎湃新闻记者的采访中,他认为:“历史上没有任何技术的演化和扩展速度达到了GPT这种速度,在过往人类可能有相对从容的时间,去完成这些过渡、适应、调整、转型。在今天时间不那么从容了。”所以,培养健全的人格,对数字空间的崛起做出整全性的回应,才能不役于物。

《枢纽:3000年的中国(增订版)》,施展著, 湖南文艺出版社/博集天卷,2023年4月版,571页,128.00元

您在书中有一个概念一直贯穿其中,无论经济空间、数字空间都出现对政治空间的脱离或穿透的趋势。但是我们所处的世界,现在是一个民族国家的、边界相对清晰的政治空间,这种穿透或者脱离对这种政治空间一定是个挑战,削弱了单一层级主权。作为传统的政治空间,一定会维护自己的单一主权,您觉得会怎么做呢?

施展:这里有两个问题,需要分别澄清。首先,这种单一主权、单一层级的主权架构,并不是历史上一直如此,只是最近这几百年的事。在欧洲,这是1648年之后的事,东亚甚至更晚,差不多到了20世纪的时候。在此之前,历史上一直都是多层级主权,只不过那时的主权概念跟今天的主权概念不一样。今天的主权有特定的法律意涵,之前的主权指的就是一种自主能力,更多的是指自主、自治而不受其他的力量所决定。

欧洲1648年威斯特伐利亚体系之后,才从法理上构造出单一主权,但这只是在法理上实现了,在现实政治状态中落实,是在法国大革命之后。法国大革命之后,各国都开始推行国民教育体系,来打造人们对国家的认同,国民教育体系不断通过一种叙事来塑造、灌输其理念,这种叙事的一个基本特征就是让人觉得仿佛这种单一层级的主权秩序是一直存在的,并且是理所当然、天然正当的。这是在国民教育体系叙事中被塑造出来的。展望未来,它也未必一直会存续。现在我们所说的这些新技术的出现,以及经济空间跟政治空间日益脱离的这些特征,都表明这种单一层级主权秩序离被颠覆掉已经不是特别远了。而且,在事实上已经被部分颠覆掉了,比如Facebook、推特,它们不是国际法主体,但是对国家的影响远远大过一般的国际法主体,只是这种新的秩序还没有足够好的法理安排。我觉得这种新的现实一定会找到它的规范形态,也许咱们有生之年就能看到。

单一主权一定会应对这种挑战,因为这将剥夺它的存在感,它一定会反对这个趋势。反对这个趋势的能力来自于财政。如果与政治空间不重合的那种经济空间、数字空间,运动得越来越越活跃,甚至数字空间完全脱离了过往的那种财政征收范围,比如比特币、web3.0,你没有办法收税。在这种情况下,如果多一半的经济活动都在那些空间里面发生,就意味着国家的财政能力会受到很大的反制,在这种反制达到它的财政能力边界之前,仍然会持续地去对抗这种现实,等超过它财政能力极限了,这些规范形态就能够落地了。非国家的这些主体,会努力去推动那种规范的出现,到国家的财政能力跟不上的那一刻,一定意味着大部分的经济活动是在国家所主导的政治空间之外在展开,或者说它的活动空间跟政治空间完全不重合了,那时候国家的财政能力就跟不上了,变化就真的会开始落地。

施展

您在书中描绘了一个基于公有链-隐私计算-DAO三位一体的数字空间的理想形态,但是如果放在现实的层面考虑,您觉得实现起来最大的困难在哪里?价值观的共识、规则的认同,还是其他什么?

施展:要说最大的困难,这可能对应着一个很残酷的事情。这种革命性的技术跃迁,它所带来的经济结构、社会结构的跃迁,在历史上我们看到过很多次,但是最终能够推动一种全方位的秩序变化,依赖于在这种新秩序当中获益的人。他们的能量、人数超过了在传统秩序当中获益的人,也就意味着传统秩序当中的人逐渐淡出历史舞台,秩序变化就会上来了。而在淡出之前,权力还在传统秩序的保卫者和受益者手里。传统秩序的受益者的人数、力量逐渐弱于新秩序受益者,新秩序才会到来。所以还需要时间来让这个东西更进一步地孕育出来,现在时间还不够。即使时间够了,并不是意味着一定就会出来,还是需要有高手出来设计、推动,在时间没够之前,有高手也会被窒息掉的。

在我们一般人看来,目前,无论区块链和元宇宙的概念和实践都是一地鸡毛,即使如您所说,现在就像大航海时代海盗横行一样,但正当秩序的建立需要漫长的时间,我们所处的海盗横行的时代,岂非注定要成为将来的代价?

施展:这也是一个很残酷的事情,实际上我们回看历史的话,“一天会比一天更好”,这不过是一种偶然,只不过我们过去三十年一直生活在这样的一种期待、感受当中。但这不是历史的常态,历史更多的常态是乱世。而且比较残酷的是,历史从来也不承诺给任何一代人以盛世。历史对谁也不承诺,这都是看你的运气。凭什么当年那些碰到海盗横行的人,他们就得忍受,我们就不能忍受海盗。而且海盗横行,你就去做海盗吧。在这种情况下,实际上命运以这种方式到来了,你没办法,只能去调整自己的预期,勇敢的人就去做海盗。如果你觉得自己没有能力做海盗,那就调整预期。

您在书中用弥漫的、无形的气形容主权个人,而且主权个人是形成正义标准的基础,这让我想到《庄子》中混沌被凿七窍的神话,混沌被凿出七窍后,面目清晰了,世界诞生了,可混沌也死了。数字空间财产秩序的建立,是否也会导致主权个人某种意义上的“死亡”?原来混沌的时候也许是一种很自在的状态。可是最后如果政治空间、数字空间重合的话,人性会有一种什么样的变化,我很难想象。

施展:我明白你说的死亡的意思,但我可以用另外一个比喻。比如干细胞可以分化成各种细胞,有着无限可能性,但它没有办法实现具体的功能,因为干细胞唯一的功能就是分化。一旦它分化成某个细胞,开始履行具体功能,比如分化成肝脏细胞,代价就是它原来的那些可能性就全都被收缩到这一个点上。在这个意义上,你也可以说干细胞死亡了,但这种死亡又是另一种意义上的新生。所以我觉得死亡与否,要看你在追求什么。让干细胞有着丰富的可能性,但没有办法完成具体功能;要完成具体功能,一定得放弃那些丰富的可能性。放弃丰富可能性意味着未来如果情况出现新的变化,那就只能锁死在一种可能性上,无法应对变化;但如果不放弃丰富可能性,当下处境中也就做不成什么具体的事情。一旦你把时空尺度格局拉到很大,事先没有办法去判断它是好是坏,这些都是命运把它送到你面前。

在演化论中有个比喻,有两种兔子,一种兔子胆子很小,一种兔子胆子很大。胆子小的偶尔出去吃一点,然后长时间都躲在洞里;胆子很大的经常在外面到处乱跑,哪种兔子活下来的概率更大?实际的答案是“不知道”。因为你不知道它们在面对什么样的环境。如果水草特别丰沛,出去转一会就能吃饱,那么肯定是胆小的兔子活下来的概率更大,因为它遇到狐狸的机会少嘛。如果环境比较差,外面草很少,胆小的兔子不敢出去找吃的,它在洞里就饿死了。胆大的兔子在外面确实有碰到狐狸的风险,但还有逃开的机会,同时在外面转的时间长,找到草的机会更大。所以谁活下去的概率更大,取决于面临什么样的环境,而环境不是你能选的。所以你说的是否实现了就“死”了,在我看来,实现了等于完成分化了,完成分化的时候,面临的是一个更好的处境还是更坏的处境,这需要等到命运把那个环境送到你面前,所以没有办法抽象地讨论。

您在书中简单描述了数字空间暗黑的一面,我想大部分人对于这一面其实充满了恐惧,您觉得这是不可避免的吗?或者说,暗黑来临时,普通人该如何应对?还是沦为提供数据苟活的分布式油田,就像电影《黑客帝国》一样只是给机器提供能量?

施展:我对这个倒不是那么担心,因为我在书里也提到,在当代,密码学越来越具有一种政治哲学属性,用密码来守住一些你希望守住的信息。在信息社会里,整个秩序是通过信息驱动建构起来的。你是否拥有信息主权,信息主权到底怎么分布,是分布在每一个个体的手里,还是只集中垄断在某个组织或暴力机构的手里?不同的分布结构就意味着秩序的不同构成逻辑、演化逻辑,以及意味着个人的权利边界。信息主权的分布,是通过一系列密码学技术来实现的结构,密码学如果能够帮助个人守护住他的信息主权,个人就不是一个分布式的油田。因为我们现在说“油田”什么的,其实都预设了一点,仿佛那些大公司从个人身上提取数据赚钱,是大公司对个人的单向掠夺。实际上这么看是不完整的,从另一角度看,如果没有大公司、平台的存在,数据在你自己身上是没用的,是大公司、平台的存在,使得这些数据获得了市场,有了市场它才有价格,所以那些平台的存在,让你的数据获得了价值。

没有数据的话,算法是没用的;没有算法,数据根本无法变现,所以是平台跟个人共同推动这种信息秩序、数字秩序的建立,不是算法决定,也不是个人的数据决定,而是计算在决定。计算是算法加数据。当然再细分的话还有算力,但如果把算力作为一个常量,算法就是平台,数据是个人。

谁在这个秩序里起结构性的作用,谁就应该获得收益。目前算法平台获得了收益,个人当然也获得了一些收益,但是收益肯定跟他所做出的贡献不成正比。之所以如此,是因为个人没有一种技术能够守护自己的数字主权,而密码学可以把主权个人的信息主权确立起来。到了那一步,个人就有了跟平台之间进行议价的可能性,一种新的分配机制就会出现,个人因为自己提供数据,不仅仅生活更便利,还可以获得分红。这些都要通过密码学来实现。所以在未来,个人是分布式油田,同时他也从这个油田的开采中获得分红;更进一步,未来也完全有可能是一个分布式的平台,没有控制者,所有人在里面都是平等的。当然在里面会有一些人更有力量的、更有重大影响力,但从法律身份来说他们都是平等的。

基于我前面所说的公有链加隐私计算,再加上DAO三位一体之后,刚才我说的逻辑都会浮现出来。我在新加的这章里提到公有链在理想型当中,是靠价值观驱动的,而这个价值观需要是足够开放、包容、自由、平等的,只有这样它才能够吸引到足够多的人,从而这条链上所发行的币的价值才更大,在这里,正义和利益是同构的。只要正义跟利益同构,就意味着如果现在大公司不给提供数据的个人分红,那么一定有人有动力去开发一套系统,能够给个人以分红。

当然并不排除仍然会有邪恶的类似于互联网上的暗网。人性当中是有暗黑的一面,这是不可改造的,如果妄想改造人性,只会带来更加暗黑的东西。但人是不断地朝着暴力越来越收敛,自由平等越来越实现的方向演化、发展。密码学的政治哲学属性更有机会实现这个演化、发展方向,人就不再是一个个体,不再是一个被动的、苟活的分布式油田。我们可以期待那些更加光明的东西,它占比会越来越大,但永远不可能把暗黑彻底消除,只要光明占比越来越大,这就是一个更加值得期待的世界。值得期待的世界是可以达到正义跟利益重构的。

最近非常热的ChatGPT的发展,对于您描述的数字空间的秩序会造成怎样的冲击,当他们产生自主意识时,我们是否无法用人性、价值观等来评估、预测?

施展:我对这事是个乐观派,我不认为它能够出现自主意识。我是用笛卡尔的方式得出这样的结论。笛卡尔说我思故我在,这里面的两个“我”是在不同位阶上的。笛卡尔说,但凡某个说法是可质疑的,我就不判断它的真假,暂时悬置起来,再去找更深层的东西,这就相当于你在不断地质疑,到最后会发现有一个正在进行怀疑的“我”的存在是不可怀疑的,否则就没有一个在怀疑的主体了。但又是谁观察到有一个正在进行怀疑的“我”的存在呢?实际上是一个更底层的“我”,观察到有一个次底层的“我”正在怀疑,而那更底层的“我”去观察而不被观察,它才是一切驱动的来源,那是真正的自我意识。更底层的“我”是不被观察的,一旦被观察的时候,实际上是有一个更更底层的“我”在观察,而更更底层的“我”又是去观察而不被观察的。也就是说,每当你观察“我”的时候,它就变成次底层的了,是一个更底层的“我”在驱动,那才是真正的自我意识,其他的一切都是自我意识的外观表象。最底层的“我”无法被观察,这就意味着没法用算法来模拟它,算法可以模拟的都是自我的外观,而不是自我的本体,它无法被模拟。所以我不认为这种人工智能能够真的产生自我意识。所有说人工智能发展出自我意识的,都是我们观察到的事情,是它表现出来的自我意识的一些外观而已,根本不是底层的东西。

现在我们经常会看到GPT是回答问题比人好。但更底层的问题是,是谁在提问?总得有一个提问的人,GPT才能动起来。提问的主体来自观察而不被观察的自我,GPT是没有办法自主提问的。

所以在这个意义上,我对人工智能产生自我意识,从而能够替代人,是不认同的。但相应的GPT确实会产生大量的替代,GPT替代的不是人而是岗位,那些岗位不需要人了。

GPT动起来之后,不懂得怎么提问的人,他们的工作会沦为貌似脑力活的体力活,会被GPT所替代。只有真正会提问的人,才能够让GPT为他所用,而不是他被GPT所用,才不会被替代。那么紧跟着问题就又来了,怎么才能够获得好的提问能力?好的提问能力意味着你对世界的足够深刻、足够敏锐的观察力,而这又来自于一种健全人格。如果你的人格是不健全的,世界在你眼中一定是褊狭的,那么你无法提出真正的好问题,就无法真正地让GPT为你所用。

追溯到这儿,就发现健全的人格反倒是未来最需要的,而健全的人格刚好是现代分科教育不重视的。现代分科教育是在19世纪后期、第二次工业革命之后在普鲁士发展起来的,对普鲁士来说,需要大规模、成批量地培养出具备专业知识的工程师,可以把第二次工业革命有效地驱动起来。为了培养这种工程师,就得大规模地进行分科教育,让一个人对特定专业领域获得非常深的知识,从而把工业运转起来。这有点像一个人在一块土地上挖井,他挖得特别深的时候,对这块地的理解超过了所有人,这就是专科教育要达到的效果。但代价是他挖得越深,离井口就越远,他通过井口所能看到的天也就越小。也就是说,会丧失对整全性的理解。而对整全性的理解,是健全人格能够被培养出来的一个前提,所以分科教育实际上不利于健全人格的培养。怎么才能够培养健全人格?你只能去读古典、读经典。因为在古典时代,高度分化的社会还没有出现,当时的思想家所关注的都是整全性的问题,他们的著作也都是对整全性的一种回应。通过读这些古典,能够建立起一种健全人格,然后才能够懂得怎样去用GPT,而不是被GPT所用或被它所替代。

但真正进入到对于古典学的阅读,并不是所有人都能做到。古典很难读,首先需要非常好的老师,但这样的老师就不多,而且这种教学很难做到批量化的教育培养,所以它就会导致一方面能够接触到这种教育资源的人不是特别多,另一方面,即便接触到了,未必你的天性适合读。所以GPT有可能会带来社会非常严重的分化,有可能1%的人在GPT上面,但99%的人在GPT下面。这种分化肯定是一种非常不平等的状态,意味着不正义,所以今天又必须认真思考一种新的分配正义、新的伦理观。因为GPT所带来的那种分化,有可能十几年之内就会成为现实。如果一种新的分配正义、社会伦理价值观不能够被构造出来,那么十几年之后社会会陷入上下交争利的状态,人和人之间的共识会彻底破碎。

新的分配正义、伦理观等等,也意味着财产权可能会被重新定义。今天我们所熟悉的财产权的形态,是在法国大革命之后才出现的。在近代以前,财富总量有限,分配极度不均,贵族拥有大量财富,穷人一文不名;但是贵族的财产上面附着有很多社会责任,他们对于领地上穷人的生老病死有着照料的责任。财产上还附着有社会责任,意味着产权边界是很不清晰的,而科斯定理告诉我们,产权边界的不清晰,会影响交易效率。法国大革命之后,便把那些社会责任从产权上剥除掉,产权边界变得非常清晰,交易效率极大提升,现代经济的高速发展,这是前提之一。但是到了今天,社会结构的变化以及它所带来的分配是如此之不均衡,那就意味着很有可能财产权要被重新定义,所有的重新定义都要满足一个基本前提,就是新的分配、正义观、秩序观,是否能够给人们保障更大的自由、更大的平等、更大的正义,如果这些保障不了的话,任何新定义一定会失败。

今天人类很紧迫,历史上没有任何技术的演化和扩展速度达到了GPT这种速度,在过往人类可能有相对从容的时间,去完成这些过渡、适应、调整、转型。在今天时间不那么从容了。

相对于之前的三次工业革命,我们面临的第四次工业革命是不是冲击最大的?

施展:可能每一次我们都会说这是冲击最大的。我们看之前那些工业革命,人类的发展是一个加速度的历程:从农业革命到工业革命,差不多隔了五千年,第一次工业革命到第二次工业革命相隔一百年,第二次工业革命到第三次工业革命也就半个世纪。每一次都在加速发展、加速演化。只要是加速度,就意味着每次革命都会带来秩序的重组,这过程当中一定有人受益,有人受损,从来都不是均衡的。一定都会带来冲突,带来动荡,而且留给我们消化动荡的时间不多了。每一次我们都会感觉这是有史以来最大的一次,它也确实是有史以来最大的一次,因为此前没见过这么快的时间节奏,但未来很有可能还会有更快的。

海量资讯、精准解读,尽在新浪财经APP


ai智能未来趋势分析 ai人工智能板块都是做什么的

ai智能未来畅想,ai智能未来发展方向论文,智能ai未来生活视频,ai智能前景如何

转自:环球时报

编者的话:“请你们监管AI(人工智能)!”据外媒报道,聊天机器人ChatGPT的创建者、美国初创公司OpenAI首席执行官奥特曼在16日参加的一场美国参议院听证会上,出人意料地向立法者表达上述观点。奥特曼直言,“如果这项技术出了问题,它可能会有很大的问题”。18日,在中国天津开幕的第七届世界智能大会上,包括百度创始人李彦宏在内涉足AI领域的企业家,纷纷表达了对AI应用前景的看法。由于ChatGPT出现,有观点称,第四次工业革命的按钮已被按下。该不该发展AI?中美发展AI各有什么优劣势?中国需做好哪些准备?《环球时报》记者就上述话题,专访了三位AI业内人士。

周鸿t:360集团创始人

“万模大战”中企核心优势是自带场景

最近一段时间,我好像成了GPT(Generati【【微信】】rmer,生成式预训练Transformer模型――编者注)的代言人、人工智能的布道者,似乎在很短时间内了解了很多相关信息。其实,这主要因为ChatGPT出来后,我觉得非常不可理解,非常好奇。有人把我的新书《超越好奇》称为年轻人和创业者的“避坑指南”,虽然人生有些坑不一定避得开,但我一直对新事物保持好奇心,它也在某种程度上成就了我。如果让我问ChatGPT创始团队两个问题,我最想问的是:在GPT1、GPT2推出的时候,市场反应并不好,他们为什么会坚定地朝这条路走下去?第二个问题是,他们在3.5和3.0之间的GPT,为什么只用10万个问题就训练出来了?据我了解,很多公司用了几百万个问题去训练,效果也不是很好,这可能是他们最核心的秘密。

现在简单说中国人工智能要超越美国可能是一句空洞的口号,因为GPT创新的突破首先发生在美国,他们解决了行业最重要的发展方向问题――通用人工智能。但同时,大模型的训练框架是开源的,技术方向已经指明了,虽然训练数据和训练方法没有披露,但通过中国科技公司的不断探索,没有不可逾越的技术障碍。何况中国科技公司在工程化、场景化、产品化、商业化等方面有很大优势,剩下的只是长期主义指导下的时间问题。

目前,中国做大模型的公司跟美国相比有差距,我认为差距大概在两年左右。如果GPT4是100分,国内很多模型也就六七十分,离优秀还有距离,但如果我们把它应用在垂直行业,发展出有中国特点的GPT,差距就不再明显了。

当前,中国已进入“万模大战”,很多公司都推出自己的大模型,未来中国不会只有一个大模型。发展大模型难的不是研发,而是与场景结合。因为大模型需要在用户的大量使用和反馈中得到持续训练和打磨,而中国互联网大厂的核心优势是自带场景。比如,腾讯的微信天生就是一个聊天界面,是最佳场景;淘宝、百度、今日头条等都可以推出各具场景优势的GPT;360的计划之一是将GPT与数字安全能力结合,做“正义助手”。

人工智能的市场机遇不仅属于互联网大厂,向不同专业领域做深度开发也是未来的发展方向,比如专门训练求诊看病的机器人、专门做数学题的机器人等,要鼓励年轻创业者研发各种新应用。此外,我相信,未来每个政府部门、企业、城市都会拥有自己的“专有GPT”。甚至每个人都将可能拥有自己的GPT,如果把一个人写的文章、每天遇见的人等内容都记录下来并进行数字化,就可能训练出个人专属GPT。

对中国来说,发展大模型不太容易面临技术卡脖子问题。虽然GPT3后可能停止开源,但从GPT2到GPT3、GPT3.5,模型原则上没有太大变化,更多的是训练方法的改变。市场领先者往往不会开源,开源的往往是其竞争者,打破垄断。谷歌、Meta等公司最近都发布了自己的大语言模型。并且,大模型的发展离不开人工训练,中国有高质量人才红利。未来,人工智能训练师有可能成为新兴热门职业。

AI是一场真正的工业革命级技术变革,对整个世界和人类都会带来巨大改变,当然也会面临一些安全挑战,比如,如果对数据进行投毒、污染,会让训练出来的机器人带有隐藏的负面能力。但最大的不安全是不发展AI。我认为,对于AI产业,我们应坚持长期主义精神,既不悲观放弃,也不盲目乐观追求速胜。同时,要营造创新环境,对于发展大模型的企业多一些支持、理解和宽容。

毕奇:中国电信首席专家、美国贝尔实验室院士

中国有5至10年时间备战AI冲击

由于ChatGPT的成功,大家已经开始讨论“硅基生命”的可能性,预测“硅基生命”是否能拥有超过人类的智慧,甚至主宰世界。如果说,以前这些被认为是不可能的科技幻想,但现在可能性已经不是零了。基于这个质变,人类是否应该对AI的发展持保守态度,甚至按下暂停键?要回答这个问题,首先要了解目前ChatGPT的根本能力,以及与人类智慧的差距。

从目前的AI发展来看,ChatGPT仅仅还是人类众多的工具之一,与人类的智慧及创造力完全不在一个等级上。具体来说,ChatGPT逻辑推理能力远不及人类,不能根据前因后果自行得出合理结论。这就是为什么ChatGPT对一些问题的回答,在我们看来是“一本正经地胡说八道”。没有这个能力,创造力就大打折扣。

有了逻辑推理能力,接下来最重要的还是自我驱动力。ChatGPT不具备自我驱动能力,类似人类大脑的功能是缺失的,与人类不可能是竞争关系。但是,当包括ChatGPT在内的人工智能工具,具备自我学习、自我驱动能力,那它可能将是人类的噩梦。但我认为,ChatGPT研发还有很长的路要走,现在还远没到需要考虑按下暂停键的时候。

AI应用在中国经济领域的推行,会否将引发产业的阵痛?我认为会的。从历史来看,所有的科技发展,都会对传统产业产生冲击和阵痛。蒸汽机、内燃机的发明,对体力劳动群体产生的冲击是有目共睹的。近代信息科技的发展,进一步大规模减少了体力劳动者的就业机会,但同时造就了更多的白领阶层。由于ChatGPT的产生,许多产业的就业门槛也会被不断提高。这次的冲击不单是对体力劳动者群体,对低端白领阶层产生的影响也将是明显的。

虽然ChatGPT效果超出一般预期,但其可靠性及性价比到底能否被大规模接受,需要拭目以待。此外,其经济模式以及在各行各业的应用、磨合,还来日方长。而ChatGPT对行业的影响,究竟是减少人工,还是促使相同的人工数量向更高质量的产出发展,现在也还不确定。举个例子,个人电脑的发展曾经被预测将是造纸行业的坟墓。但实际发展证明并非如此。因此,ChatGPT对就业的影响是负面还是正面,还有待观察。但中国相关产业至少有5―10年时间为AI可能带来的冲击做准备。

全世界范围看,美国在人工智能领域的研究“一骑绝尘”,后面很少有追赶者。大模型需要的算力硬件要求较高,如果美国对中国实施禁运,会给中国带来一些挑战。但这不是最重要的,中国研究AI最大的门槛在于,虽然ChatGPT的神经网络系统已经比较完整,但围绕这个神经网络的对齐、微调、强化学习及逻辑推理等算法,还在不断摸索和改善之中。这些算法是磨合AI在各行各业应用的关键必经之路。如果雇不到足够强的专家,做得不够极致,应用的推广会遇到较大瓶颈。

AI必然是全球未来竞争的一个重要赛道,无论多难,中国都需要注重投入AI研发。美国正通过对AI的研发,掀起一场未来科技发展的革命。据我了解,中国企业已经在布局AI,另一个较为重要的建议是,在训练AI相关产品时,不能只局限中文语料库,语料库的完整性将会严重影响人工智能的应用范围和潜力。近代以来,西方产生大量科技发明和创新,这些都以英语记载和传播。如果我们只用中文语料,将和世界的进展产生巨大鸿沟,也不利于中国人工智能应用在全球范围的推广。

丁磊:美国PayPal全球数据科学平台创始负责人

训练GPT模型是“养娃模式”

我曾为美国支付服务商PayPal公司建立了服务全球用户的数据科学平台,在AI领域有20多年的研究和工作经验。在硅谷工作多年,我非常了解为什么硅谷会出现OpenAI及奥特曼这样的人物――是硅谷的“工程师文化基因”造就了他们。对于AI领域来说,不能沿用互联网公司的“养鸡模式”,而是得用“养娃模式”来研发产品。

实际上,美国真正专注通用人工智能研发的知名公司也就两家――OpenAI以及谷歌母公司Alphabet下设的人工智能实验室DeepMind。就目前披露的信息看,奥特曼个人能力非常强,不仅懂技术,也懂商业运作,OpenAI在运营过程中也鲜少受股东制约。OpenAI是长在美国硅谷重视工程师地位的文化土壤里,有着强大的“工程师文化基因”,简单说就是工程师可以主导研发,拥有更大自主性,发挥创造性的空间更大。

但是OpenAI也是一个很稀有的物种,在美国可能找不到第二家。为什么谷歌等大公司目前在人工智能领域的研发,都很难超越OpenAI?一个关键因素就是GPT是一个新领域,训练这么大一个模型,难度不亚于造火箭或无人车。打个比方,包括谷歌在内的现代公司研发产品,采用的是“养鸡模式”,公司会将“养鸡”拆成不同的细分任务,多部门人员各自负责具体业务。而训练GPT模型是“养娃模式”,它反而不需要那么多老师、厨师,核心人物只要少数。也就是说,它很难拆分成完全独立的任务,必须有固定父母站在全局角度,亲自教授培养孩子。所以在这种模式下,谷歌没最早做出产品的原因很简单,现有公司体系很难在AI领域取得里程碑式的成功。训练GPT模型本质是一个很难拆解的事,需要公司领导层在技术、业务,甚至资本层都是专家。

另一个简单的例子就是,美国AI绘画工具Midjourney,是由一家独立研究实验室开发出来的。包括创始人大卫・霍尔兹在内仅有11个人,除了他和财务、法务,核心只有8位研发人员。我也曾在IBM沃森研究中心有过一段工作经历,IBM的沃森人工智能也曾陷入这种困境――有太多的人参与人工智能训练,资源太多、研发不聚焦,造成该项目并没有持续取得成绩。

现在大家普遍对人工智能有一种焦虑,在我的新书《生成式人工智能――AIGC的逻辑与应用》当中,比较详细介绍了哪些职业可能被取代。在我看来,随着中国经济发展、产业升级,“中国版OpenAI”和“中国奥特曼”的出现也可以期待。就AI人才来说,中国的人才不比美国少,中国要想在AI竞争中快速占据有利位置,不妨加快布局,尊重模型训练本身的规律,用客观、全面的AI思维,去迎接这一领域的挑战。

(原标题:专访AI业内人士:发展人工智能,中美各有什么“长短板”)

来源:环球时报

流程编辑:tf027

海量资讯、精准解读,尽在新浪财经APP