庆云古诗词

庆云古诗词

chatgpt会向中国开放吗 chatgpt会给生活带来什么变化

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt开源

原标题:ChatGPT即将彻底改变社会,是失业还是进步?你我都有话语权

无论是否是炒作,过去几个月里,人工智能淘金热已经开始,许多人开始挖掘 ChatGPT 等生成式人工智能模型中的商业机会。应用程序开发者、风险投资支持的初创公司和一些世界上最大的公司都在努力寻找机会,一切都拜 OpenAI 在 2022 年 11 月发布的这个文本生成聊天机器人所赐。

“我们能用 ChatGPT 做什么?我们怎么才能靠这个赚钱?”在世界各地的办公室里,类似的声音此起彼伏。

不过,尽管企业和高管看到了一个明显的淘金机会,但这项技术对工人和整体经济可能产生的影响却远不那么明显。尽管存在各式各样的局限性,但 ChatGPT 和其他最近发布的生成式人工智能模型可以让许多任务自动化,而这些任务以前被认为是需要人类的创造力和推理的领域,包括写作、绘图、总结和分析数据。这让经济学家们无法确定它会对就业机会和整体生产率造成什么影响。

尽管过去十年来,人工智能和其他数字工具取得了惊人的进步,但它们在刺激经济增长方面不尽人意。虽然其中不乏一些投资者和企业家已经变得非常富有,但大多数人并没有受益,甚至因为自动化而丢了工作。

(来源:STEPHANIE ARNETT/MITTR)

生产率增长是国家变得更富裕和更繁荣的原因,自 2005 年以来,美国和大多数发达经济体的生产率增长一直低迷(英国是一个特殊的例子)。原因是经济这块蛋糕没有多少增长,导致了许多人的工资停滞不前。

当时生产率的增长主要局限于一些少数行业比如信息服务,以及美国的一些城市――比如圣何塞、旧金山、西雅图和波士顿。

ChatGPT 会让美国和其他许多国家本就令人不安的财富不均状况变得更糟吗?或者,它能有所帮助吗?它真的能实现生产率的提升吗?

OpenAI 发布的 ChatGPT 和 DALL-E 2,一个可以生成文字,一个可以生成图像,它们都使用经过大量数据训练的大型语言模型。同样的情况也适用于竞争对手,比如 Anthropic 公司的 Claude 和谷歌的 Bard。这些所谓的基础模型,比如 ChatGPT 背后的 GPT-3.5,谷歌 Bard 背后的 LaMDA,近年来发展十分迅猛。

它们不断地变得愈发强大:使用更多的训练数据,参数的数量也就是模型中被调整的变量也在急剧增加。2023 年 3 月早些时候,OpenAI 发布最新的语言模型 GPT-4。虽然 OpenAI 没有透露它到底有多大,但我们可以猜一下。更早之前的 GPT-3 大约有 1750 亿个参数,是 GPT-2 的 100 倍左右。

真正改变了一切的是 2022 年年底发布的 ChatGPT。它非常容易使用,而且能够快速创建与人类水平相似的文本,包括食谱、健身计划和计算机代码。对于普通人来说,比如企业家和商人,易上手的聊天模型不再是抽象和深奥的东西,它仅靠实用性就超过了以往那些学术界和科技公司曾经所做的成果展示,证明了人工智能革命的真正潜力。

风险投资家和其他投资者正在向基于生成式人工智能的公司投入数十亿美元,而由大型语言模式驱动的应用程序和服务与日俱增。

据报道,微软已经在 OpenAI 及其 ChatGPT 上投资了 100 亿美元,希望这项技术能为其鲜有人问津的必应搜索引擎带来“第二春”,并且为其 Office 产品带来新的功能。2023 年 3 月初,Salesforce 公司表示将在其广受欢迎的 Slack 产品中推出一款 ChatGPT 应用程序;与此同时,该公司宣布了一笔 2.5 亿美元的基金,以用于投资生成式人工智能初创公司。从可口可乐到通用公司,许多知名公司都在尝试 ChatGPT。

与此同时,谷歌宣布将在 Gmail、Docs 和其他一些广泛使用的产品中,使用其新的生成式人工智能工具 Bard。

不过,我们目前还没看到杀手级应用程序。经济学家们说,随着企业争先恐后地寻找使用这项技术的方法,如何从新一代人工智能中获得最大利益,已经成为了一扇难得的机会窗口。

“我们在现在这个时间点讨论它,是因为你可以接触到这项技术。不需要任何编程技巧,你也可以使用它。很多人开始想象这将如何影响他们的工作流程和就业前景,”旧金山 Partnership on AI 组织的人工智能、劳动力和经济研究负责人卡蒂亚・克林诺瓦(Katya Klinova)说。

“问题是谁会从中受益?谁又会被留下?”克林诺瓦说,她正在撰写一份报告,概述生成式人工智能的潜在就业影响,并且为使用它来增加“共享繁荣”提供建议。

乐观的观点是:它将成为是许多人手中的强大工具,提高他们的能力和专业知识,同时促进整体经济发展。悲观的观点是:公司只会用它来摧毁曾经看起来像是非自动化的工作,摧毁那些需要创造性技能和逻辑推理的高薪工作;一些高科技公司和科技精英将变得更富有,但这对整体经济增长没有什么帮助。

帮助技术水平最低的人

ChatGPT 对工作的影响并不仅仅是一个理论问题。

在最近的分析中,OpenAI 研究团队联合美国宾夕法尼亚大学团队发现像 GPT 这样的大型语言模型可能会对 80% 的美国劳动力产生影响。

他们进一步估计,包括 GPT-4 和其他类似的软件工具在内的人工智能模型,将严重影响 19% 的工作,这些工作中至少有 50% 的任务“被人工智能软件所涵盖”。他们认为,与我们在早期自动化浪潮中所看到的相反的是,高收入的工作受到的影响最大。一些最风险最大的职业包括作家、网页和数字设计师、金融定量分析师以及区块链工程师。

麻省理工学院劳工经济学家大卫・奥托(Da【【微信】】)说:“毫无疑问,生成式人工智能将被广泛使用,它不仅仅是一个新鲜事物。律师事务所已经在使用它了,这只是一个例子。它可以让许多任务变得自动化。”他花了数年时间记录先进的数字技术是如何摧毁许多曾经高薪的制造业和日常文书工作的。但他表示,ChatGPT 和其他生成式人工智能的例子已经改变了游戏。

以前,人工智能已经将一些办公室工作自动化,但仅限于那些机械式的任务,他们可以很容易地被程序替代。可是现在,人工智能可以执行我们曾认为的有创造性的任务,比如写作和制作图片。他说:“对于任何关注它的人来说,很明显生成式人工智能为许多我们认为不容易自动化的任务打开了自动化的大门。”

最令人担心的事情不是 ChatGPT 将导致大规模失业,奥托指出美国有很多工作种类,很多公司将用这种新形式的自动化取代相对高薪的白领工作,当有少数玩转这项新技术的人享受红利时,更多的人将被迫去薪水更少的行业就业。在这种情况下,精通该技术的人和公司可以很快通过人工智能工具变得更有效率,以至于他们主导了其所在的工作场所和行业。而那些技能匮乏、对新技术不敏锐的人将被甩在后面。但他也看到了一个更积极的可能结果:生成式人工智能可以帮助许多人习得新技能,从而与那些拥有更多教育和专业知识的人竞争。

关于 ChatGPT 如何影响生产力的第一个科学研究表明,这样的结果是可能会发生的。

麻省理工学院的两名经济学研究生沙克・诺伊(Shakked Noy)和惠特尼・张(Whitney Zhang)进行了一项实验,让数百名受过大学教育的专业人士在市场营销和人力资源等领域工作。他们要求一半的人在日常工作中使用 ChatGPT,而其他人则不这样做。结果发现 ChatGPT 提高了整体生产率(这并不太奇怪),但一个更有趣的结果是:技术最差和最好的员工从人工智能工具中受益最多,这其实缩小了员工之间的绩效差距。换句话说,糟糕的作家会变得好得多,好的作家只是变得效率更高一些。

用经济学的行话来说,这些初步研究结果表明,ChatGPT 和其他生成式人工智能,可能会“补益(upskill)”那些难以找到工作的人。奥托说,有许多经验丰富的人在过去几十年里没有发挥他们的全部潜力。如果生成式人工智能可以作为一种实用工具,以扩大他们的专业知识,并在医疗保健或教育等有着大量工作岗位需求的领域,为他们提供专业技能,那么它就可以振兴我们的劳动力。对于在哪种场景下应用它,我们需要更深思熟虑的思考:即我们希望如何利用这项技术。“我不认同的一个想法是:因为这项技术正在影响全世界,所以我们必须适应它。其实它正处于被创造的过程中,所以它可以以多种方式被使用和开发,”他说,“参与到它的设计过程是非常重要的。”

简单地说,我们正处在一个关键时刻:要么是技能水平较低的人,将越来越有能力从事现在需要高技能水平的工作;要么是最有才华的高水平技术工作者,将从根本上扩大他们比其他人所拥有的优势。我们得到的结果,在很大程度上取决于雇主如何使用像 ChatGPT 这样的工具,但更有希望的选择或许已经触手可及了。

超越人类

然而,我们也拥有悲观的理由。2022 年春天,在《图灵陷阱:类似人类的承诺和危险》一书中,斯坦福大学经济学家埃里克・布林约夫松(Erik Brynjolfsson)警告说,人工智能创造者过于痴迷于模仿人类智能,而不是使用这种技术来让人们完成新任务并扩展他们的能力。他认为对类人能力的追求,导致机器和技术仅被用于取代人类和压低人类工资,着加剧了财富和收入的不平等。他写道,这是财富日益集中的“最大解释”。一年后,我们看到 ChatGPT 的输出内容非常类似人类的产出。他说:“就像我警告过的那样:这激发了相关话题的讨论,尤其是关于如何使用新技术给人们提供新的能力,而不是简单地取代人类。”

尽管布林约夫松担心人工智能开发者会无视这些话题,继续提升模型对人类的模仿能力,但他在人工智能方面是一个技术乐观主义者。两年前,他预测,人工智能和其他数字技术将导致生产率的繁荣,而如今他仍然看好新的人工智能模型所带来的影响。他的乐观情绪主要来自于这样的信念,即企业可以通过使用 ChatGPT 等生成式人工智能来扩大产品范围,提高员工的生产力。“这是一个很好的创意工具。它能帮助你做新奇的事情,而不仅仅是用更低廉的成本做同样的事情。”他说,“只要公司和开发者能够抛开用其取代人类的心态,这是非常重要的。”他预测,十年内生成式人工智能将为美国增加数万亿美元的经济增长。“我们的经济基本上是靠知识工作者和信息工作者,很难想象哪一种类型的信息工作者不会受到其影响。”他说。

生产力什么时候才能提高,这是一个经济游戏。也许我们只需要保持耐心。

1987 年,麻省理工学院经济学家罗伯特・索罗(Robert Merton Solow)因解释创新如何推动经济增长而获得诺贝尔奖。他说了一句名言:“我们到处都看得见计算机,就是在生产率统计方面却看不见它。”

直到后来,在 20 世纪 90 年代中后期,这些影响――尤其是来自半导体领域的进步――才开始出现在生产率数据中,因为企业知道了如何利用越来越便宜的计算能力和日益强大的软件。

人工智能也会发生同样的事情吗?加拿大多伦多大学的经济学家阿维・戈德法布(A【【微信】】)认为,这取决于我们能否像早期计算机时代那样,利用最新的技术来改变企业。他说,到目前为止,公司只是稍微地利用人工智能:“它将提高效率――它可能会逐步提高生产率――但最终,净收益将会很小。因为你只是把事情稍微做的好一点点。但是这项技术不仅能实现这一点,它还可以让我们创造新的流程,为客户创造价值。”至于生成式人工智能何时会激发这种局面,我们仍不确定。他说:“一旦我们弄清楚优秀的写作能力能让行业如何改变行事方式,或者对 DALL-E 而言优秀的平面设计能力如何改变行事方式,我们就将经历巨大的生产率提升。但如果你问这会出现在下周、明年或十年后吗?我不知道。”

权力斗争

当美国弗吉尼亚大学经济学家安东・科里内克(【【淘密令】】)体验新一代大型语言模型(如 ChatGPT)之时,他做的事情和很多人类似:他开始肆意体验,看看它们如何帮助他的工作。他在 2023 年 2 月份的一篇论文中仔细地记录了它们的表现,并指出它们在 25 个“应用场景”下的效果,从头脑风暴和编辑文本(非常有用),到编程(在一些帮助下很好)再到做数学题(不是很好)。ChatGPT 错误地解释了经济学中最基本的原则之一,他说:“它的表现很差劲。”但这其他的亮眼表现足以弥补它。“我可以告诉你,作为一名认知工作者,这让我更有效率,”他说,“毫无疑问,当我使用语言模型时,我会更有效率。”当 GPT-4 问世时,他用同样的 25 个问题上测试了它的性能,其表现要好得多。编造东西的情况更少,在数学上的表现也更好。他指出,由于 ChatGPT 和其他人工智能机器人将认知类工作变得自动化,而不需要在设备和基础设施上进行过多投资,因此经济生产力的提高可能比过去的技术革命要快得多。他说:“我认为,到 2023 年年底,我们就可能会看到生产力得到更大的提升。”更重要的是,他认为从长远来看,人工智能模型能够让他自己这样的研究人员变得更有效率,因此更有可能推动技术进步。

这种大型语言模型的潜力已经出现在物理学的研究中。贝伦德・斯密特(Berend Smit)在瑞士洛桑联邦理工学院 EPFL 管理着一个化学工程实验室,他是一名使用机器学习来发现新材料的专家。2022 年,在他的一个研究生凯文・迈克・贾布隆卡(Ke【【微信】】)使用 GPT-3 展示了一些有趣的结果后,贾布隆卡被证明 GPT-3 对其进行的复杂机器学习研究是无用的。

“它完全失败了,”斯密特开玩笑说。

结果是,在用几个相关的例子进行了几分钟的微调后,该模型的表现堪比专门为化学开发的高级机器学习工具,它可以回答有关化合物的溶解度或其反应性等基本问题。简单地给它一个化合物的名称,它就可以根据结构预测各种性质。

就像在其他工作领域一样,大型语言模型可以帮助扩展非专家的专业知识和能力。这样来看,贾布隆卡目前是一位对复杂的机器学习工具知之甚少的化学家。他说,而大型语言模型就像检索一样简单,“它可以把机器学习带给广大的化学家。”

这些令人印象深刻的结果表明,人工智能在广泛的创造性工作中是多么强大,包括在科学发现中它们是多么容易令人震惊。

但这也指出了一些基本问题。随着生成式人工智能对经济和就业的潜在影响变得愈发迫在眉睫,谁将定义这些工具的设计和部署方式呢?谁将控制这项惊人技术的未来?

英国剑桥大学的经济学家黛安・科伊尔(Diane Coyle)说,其中一个担忧是大型语言模型有可能会被统治数字世界的科技巨头所主导。她指出,在 OpenAI 拿出 ChatGPT 之后,谷歌和 Meta 也在短时间内公布了自己的大型语言模型,训练这些模型所需的巨大计算成本为任何想要竞争的人创造了进入障碍。她说,人们担心的是这些公司都有类似的“广告驱动的商业模式”。她承认没有比较简单的解决办法,但她说一种可能性是模仿欧洲核子研究中心设立一个公共资助的生成式人工智能国际研究组织,并让其拥有运行模型所需的巨大计算能力和进一步发展该技术的科学专业知识。科伊尔说,在大型科技公司之外的努力,将“给模型的创造者在制作它们时所面临的激励带来一些多样性。”她说,虽然目前还不确定哪些公共政策有助于确保大型语言模式是最符合公众利益的,但越来越清楚的是,我们使用这项技术的方法不能只留给少数占主导地位的公司去定义。

历史为我们提供了大量的例子,即政府资助的研究机构在开发能为人类社会带来广泛繁荣的技术方面有多么重要。早在欧洲核子研究中心发明万维网之前,20 世纪 60 年代末的另一项公共资助的努力曾催生了互联网,当时是由美国国防部支持的阿帕网(ARPANET),其曾开创了多台计算机相互通信的方法。

在《权力与进步:我们关于技术与繁荣的 1000 年斗争》一书中,麻省理工学院的经济学家达伦・阿塞莫格鲁(Daron Acemoglu)和西蒙・约翰逊(Simon Johnson)提供了一个引人注目的回顾,即技术进步的历史及其创造广泛繁荣的混合记录。他们的观点是,应该刻意引导技术进步去带来更广泛的好处,而不是仅仅让精英变得更富有。

从第二次世界大战后到 20 世纪 70 年代初的几十年里,美国经济经历了快速的技术变革;大多数工人的工资都在上升,而收入不平等急剧下降。阿塞莫格鲁和约翰逊说,原因是技术进步被用来创造新的任务和工作机会,而社会和政治压力有助于确保工人与雇主比现在更平等地分享福利。

相比之下,他们写道最近几十年来,“美国中西部的工业中心地带”迅速采用制造机器人,但这只是摧毁了就业机会,导致了“长期的地区衰退”。

这本书将于 2023 年 5 月出版,对于理解当今人工智能的快速进步会带来什么、以及这些技术突破的使用方式将如何影响我们所有人的未来尤其相关。在最近的一次采访中,阿塞莫格鲁说,当 GPT-3 首次发布时,他们正在写这本书。他还半开玩笑地补充说:“我们预见到了 ChatGPT。”他坚持认为,人工智能的创造者“正朝着错误的方向前进”。他表示,人工智能背后的整个架构“都处于自动化的模式下”。“但生成式人工智能或一般人工智能没有什么内在因素去推动我们朝着这个方向发展,这只不过是 OpenAI、微软以及风险投资界人士的商业模式和愿景。”

如果你相信我们可以引导一项技术的发展轨迹,那么一个明显的问题是:谁是“我们”?这就是阿塞莫格鲁和约翰逊最前瞻的思考。他们写道:“社会及其有权有势的‘看门人’,应当停止被科技亿万富翁和他们的议程所吸引……人们不需要成为人工智能专家,就能对这些技术形成的进步方向和社会的未来拥有发言权。”

ChatGPT 的创造者和参与将其推向市场的商业人士,尤其是 OpenAI 的 CEO 山姆・奥特曼(Sam Altman),为公众提供了新的人工智能“刺激”,值得赞誉。它的潜力巨大,但在关于我们希望技术走向哪里,以及应该如何使用它的问题上,这并不意味着我们必须接受他们的愿景和愿望。

根据 OpenAI 的叙述,AI 最终的目标是通用人工智能,如果一切顺利这将带来巨大的经济财富和富足。奥特曼最近详细地讲述了这一愿景,为他长期倡导全民基本收入理念提供了更多的理由。对一些人来说,这听起来很诱人:没有工作,也能拿到钱!

但令人不安的是这个故事背后的假设――即人工智能正走上一条不可避免的、抹杀工作的道路,而我们大多数人只是被裹挟其中。这个想法,几乎否定了生成式人工智能帮助高技术水平人才进一步释放其才华的可能性,也进一步无视了由此可能带来的创造力和生产力的繁荣。很少有人讨论,如何利用该技术去提升人们的能力和专业知识,从而促进更广泛的繁荣。

正如阿塞莫格鲁和约翰逊所写:“我们正走向更大的不平等,这不是不可避免的,但却在‘谁在社会上拥有权力、谁能决定技术走向’上做出了错误选择。事实上,全民基本收入完全贴合商业和科技精英的愿景,即他们是开明的、有才华的人,应该慷慨地资助其余的人。”他俩提出了多种实现“更平衡的技术组合”的工具,从税收改革和其他可能鼓励创建更有利于工人的人工智能政策,到有望让学界摆脱大型科技公司对计算机科研和商学院研究的资金资助的改革。

但是,经济学家们承认,这样的改革是“一项艰巨的任务”,而想从社会层面推动技术变革是“很遥远的”。

好消息是,我们可以决定如何选择使用 ChatGPT 和其他大型语言模型。随着无数基于这项技术的应用程序被推向市场,企业用户和个人用户将有机会选择他们利用它的方式。公司可以决定是使用 ChatGPT 赋予人们更多的能力、还是简单粗暴地通过裁员来削减成本。

另一个积极的进展是:生成式人工智能的开源项目正在积蓄能量,这可能会打破大型科技公司对这些模型的控制。值得注意的是,2022 年有一千多名国际研究人员合作开发了一种名为 Bloom 的大型语言模型,该模型可以创建法语、西班牙语和阿拉伯语等语言的文本。如果科伊尔和其他人是对的,增加对人工智能研究的公共资金可能有助于改变未来突破的进程。

斯坦福大学的布林约夫松不认为自己能对结果保持乐观。不过,如今他对这项技术的热情仍然不减。他说:“如果我们朝着正确的方向使用这项技术,我们可以开启有史以来最好的十年之一,但这并不是一件容易的事。”

支持:Ren

原文:

https://www.technologyreview.com/2023/03/25/【【QQ微信】】/【【微信】】e-economy-decide-what-looks-like/返回搜狐,查看更多

责任编辑:


chatgpt对数字版权公司的影响 chatgpt生成的文章有没有版权

数字版权l3,数字版权问题,数字版权的好处,“数字版权”应该重在保护,还是重在传播?

通信世界网消息(CWW)随着人类社会进入Web3.0时代,大数据与人工智能深刻地改变着人类社会的生产方式与产业经济结构。近日,由美国OpenAI公司开发的一款名为“ChatGPT”的智能聊天机器人引起了社会各界的广泛关注。

中共中央、国务院于2017年印发的《新一代人工智能发展规划》指出,“在大力发展人工智能的同时,必须高度重视其可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”

本文以ChatGPT为切入点,选取人工智能聊天机器人所引起的知识产权风险进行讨论。一是因为ChatGPT的高度智能性主要表现在其能够模仿人类的表达逻辑,生成的文本内容与人类创作的作品高度相近,并且在多数情况下可以为用户直接采用,因而版权归属问题、用户使用限度问题是强人工智能体对当前法律体系带来的最直观冲击。二是强人工智能的发展以庞大的数据集为根基,缺乏足量的数据就无法对人工智能进行训练,而数据集的调用又涉及原始创作者的著作权与商标权。

ChatGPT对当前人工智能的突破

由于以往的人工智能在“类人性”方面总是有所缺憾,无论是绘画创作AI“微软小冰”还是苹果智能语音助手Siri,都难以完整地复现人类心智,因此这一定义在提出时很大程度上只是对未来的超前设想,描述了人工智能的发展远景。而ChatGPT的出现使人工智能技术向“类人性表达”的目标无限趋近,其生成文学作品、法律文书、案例分析的能力足以表明,当前生成式AI正从“技术层”向“应用层”突破,现实地完成人类的高难度工作。具体而言,ChatGPT至少在通用性、智能性与逻辑性3个方面大幅领先于现有生成式AI。

ChatGPT具有通用人工智能大模型的特征 

以往的人工智能多属于小语言模型,其应用仅限于特定场景和专业范畴。ChatGPT则实现了“小模型”向“大模型”的突破,能够回答法学、计算机、文学、经济学等多种专业领域的问题,这具有两方面意蕴。

一方面,通用性使人工智能的决策模式与人的相似性进一步提高,与AlphaGo等小模型相比,克服场景限制后的ChatGPT很难再被单纯地定义为一种专业辅助工具,至少从外观上看ChatGPT更接近助手或顾问的角色。

另一方面,通用性也标志着人工智能技术逐步走向普适化、平民化应用。统计公司Similarweb数据显示,2023年1月ChatGPT单日平均独立访客数量已达1300万人次,而至2月初,单日用户访问量已达2500万人次。在以往的小模型阶段,人工智能的开发主要是为了解决特定领域的专业难题,因此在多数情况下只有特定行业的专业人员能够接触、使用AI。通用性人工智能的出现,使AI的应用正式从小范围特定人群走向普罗大众,与此同时也将潜在风险向社会层面扩散。

ChatGPT具有高度智能化的特征

OpenAI官网内容显示,ChatGPT的创新之处在于采用了RLHF(基于人类反馈的强化学习)人工智能训练方法,该训练方法使得ChatGPT具有与以往人工智能不同的高度智能化特征。这一训练过程包含3个阶段,首先是监督学习阶段,相比起AI无监督自我学习,监督学习需要专业人员对ChatGPT待解决的问题进行人工数据标注,为ChatGPT人工书写高质量的答案。其次是训练奖励模型阶段,专业人员通过建立奖励模型的方式对ChatGPT输出的不同答案进行打分,促使ChatGPT输出高分答案。最后是强化学习阶段,运用PPO算法不断强化ChatGPT的能力。

RLHF训练方法极大地提升了ChatGPT的智能性,强化了生成式AI的功能,这一提升主要体现在以下两个方面。其一,ChatGPT能够基于人类反馈模仿人类的表达方式和表达逻辑。以往生成式AI所输出的文本存在逻辑性较差、语序混乱、表达生硬以及情感缺失等问题,与人类的表达方式相去甚远,因此无法被用户直接使用。而ChatGPT能够学习、模仿人类的表达方式,输出逻辑更严密、表达更健全的文本内容,因此可以在不经用户改写或少量改写的情况下直接使用。其二,ChatGPT能够精准识别用户指令,输出与用户需求高度匹配的答案。ChatGPT与之前的模型相比,其对话生成实现了从命令驱动到意图驱动的转换。ChatGPT在与用户交流的过程中,用户无需输入繁琐的要求和指令,仅需用日常语言输入简单的想法,ChatGPT即可“心领神会”,完成用户所指定的任务。此种对用户需求精准识别的能力能够有效降低AI产品的使用门槛,但同时也加剧了AI异化为违法犯罪工具的风险。

ChatGPT具有记忆性

ChatGPT与当前人工智能相比另一个重要突破就是能够记住与用户交流的内容,并具有在前期对话的基础上与用户进行持续交流的功能。使用者表示,ChatGPT能够根据用户的后续指令进一步修正自己先前输出的答案,也能够质疑不正当的提问。记忆性特征使ChatGPT的运用变得更加灵活多样,用户所获得的答案并非一次性的,即使ChatGPT初次生成的内容与用户需求还存在一定的距离,用户也无需亲自进行人工修改,而是可以逐步引导其增加、删减部分内容。

ChatGPT所涉知识产权风险的应对

人类技术发展史表明,新技术一旦在人类社会广泛应用,将不可避免地引发全新的法律风险。互联网的普及引起了法学界对网络暴力、通信信息*、数据侵权、虚拟财产犯罪等风险的警惕与慎思,相应的,以ChatGPT为代表的通用性、高智能性、记忆性人工智能的广泛应用,也会对既有法律体系与法学理论提出全新的挑战。作为文本生成式AI,目前ChatGPT尚不具有生成图像、音视频以及联通多用户交流的能力,因此其被利用成为智能化犯罪工具的可能性尚处于较低水平,现阶段ChatGPT在法学领域引起的冲击更多地集中于知识产权领域,包含在数据源获取与内容生成两个运行阶段之中。

在数据源获取阶段,人工智能对数据集的使用可能涉及对原始作品权利人的侵权风险。在内容生成阶段,ChatGPT将进一步引起人们对AI主体地位、AI生成物法律权属问题的反思。

ChatGPT在数据源获取阶段的侵权风险

算法、算力、数据是人工智能开发的三大要素。ChatGPT的通用性、高智能性、记忆性除基于其特殊的训练方法外,更源于其所拥有的海量数据集。据统计,ChatGPT背后所拥有的参数高达1750亿个,远超现有的其他生成式AI。根据国外人工智能学者Alan D. Thompson的研究,ChatGPT的数据源包含维基百科、书籍、期刊、Reddit链接、【【淘密令】】等。ChatGPT是通过学习互联网上的现有数据,并在此基础上加工整理形成答案的,而社交网站、书籍、网页数据无不包含着大量原始创作者的作品,这一过程并未经过版权人许可,可能构成对原始作品权利人的侵权。

这一问题在实践中已经出现,在Andersen et al 【【微信】】案中,以Andersen为代表的3位艺术家对一款AI绘图工具提起集体诉讼,认为AI公司在未经许可的情况下将多位艺术家所创作的50亿张网络图片用于AI机器学习,其行为侵犯了艺术家们的权利。与此相近的是,意大利个人数据保护局取缔了一款名为“Replika”的人工智能聊天机器人,认为其非法收集、使用原始数据。该案虽然并非知识产权侵权,但也同样表明目前AI抓取、使用数据可能侵犯原始数据源之上的各种权利。

对于数据源获取阶段的知识产权侵权风险,笔者认为,在解释论上应适度扩张合理使用制度的范围,以使其能够适用于AI抓取公开数据的情形。

其一,数据抓取、分析是开发人工智能程序的必要条件,未来强人工智能的进一步发展更需要海量的数据源支撑。相关研究表明,人工智能大模型的训练至少需要62亿的参数量。此时要求开发者获取全部产权人的许可并不现实,知识产权法领域若不能弱化该风险,将阻碍人工智能的技术创新。

其二,AI开发者利用数据集的行为具有合理使用的外观。AI及其开发者使用数据集的行为包含复制导入数据和AI学习分析数据两个过程,而知识产权法之所以对复制行为进行规制,是因为在传统的出版领域复制与发行具有密切相关性,控制复制行为能够有效阻止其后的发行行为。而现代计算机技术的出现使复制行为和传播行为发生分离,单纯复制行为的规制必要性大大降低,多数个人复制行为都被纳入合理使用制度的框架,互联网传播行为成为法律规制的重点。而人工智能对数据源的使用恰恰具有单纯复制行为的特征,开发者所使用的数据源都是从互联网上已公开的内容中抓取的,其获取行为不具有非法性,而且开发者利用数据训练人工智能,AI生成物在多数情况下不会复现原作品的内容。

ChatGPT在内容生成阶段的权属争议风险 

如前所述,ChatGPT具有通用性、智能性及强大的人类模仿能力,这使得其生成物具有与以往人工智能生成物相比更高的价值。而且ChatGPT已经在社会层面得以普及,除部分IP受限制的国家和地区外,普通民众也能直接注册、使用ChatGPT。上述两点使AI生成物的权属问题更实际地摆在了知识产权法理论面前,如果说之前法学界对AI生成物权属的探讨是前瞻性的,那么现在的探讨无疑具有现实性。

现有司法实践对AI生成物权属的判断主要包含以下3个层面。一是从作品的角度入手,探讨AI生成物是否符合著作权法理论中作品的含义。二是从创作行为的角度入手,探讨AI的创作过程是否具有“独创性”。三是根据智力成果的投入,确定作品应归属于开发者还是用户。持肯定态度的观点认为,AI生成物在外观上具有独创性,并且能够体现创造者的个性化选择、技巧、判断等因素。持否定态度的观点强调作品必须是人的智力成果,创作行为也必须是人的智力活动,AI生成物缺乏人的智力参与,没有传递软件使用者的思想,不能被认定为作品。

事实上,从“独创性”“作品”角度探讨人工智能生成物的权利归属问题不具有现实意义,因为AI生成物和人类作品的核心差异并不在于作品外观上是否具有独创性特征,而在于是否由人所完成。正如华东政法大学王迁教授所言,“只有当源自人类的相同内容属于作品时,才有必要讨论由人工智能生成的内容能否被认定为作品。”AI生成物的权属问题在根本上要解决的是AI所输出的内容是否具有赋予其法律保护的必要性,或者说,AI生成物如果不受法律保护而成为人人可随意使用的内容,是否会导致学术不端、抄袭泛滥?

笔者认为,在现阶段有必要对AI生成物进行法律保护。一是因为当前AI生成物已经超出了对既有材料简单复制、加工、改写的阶段,ChatGPT的高智能使其能够输出自身的观点,并且很难在互联网上检索到与输出文本相似的内容,换言之,ChatGPT将AI生成物的独创性推到了一个前所未有的高度。二是由于AI生成物的随意使用可能诱发学术不端。因此,在以ChatGPT为代表的具有一定程度独立意识的高智能AI出现后,法律有必要对其生成物进行保护,以最大可能防止AI在学术科研中的滥用。

需要明确的是,对AI生成物进行法律保护并不意味着需要承认人工智能的权利主体地位。而应当采用行为规制的方法,从限制用户对AI生成物的使用范围出发,一方面利用行业自治规则等软法要求使用者在作品创作中明确披露其对AI的使用情况,在排除AI生成内容后对作品的创新性、实用性进行重新评估,根据作者自身创作的部分来判断作品质量。另一方面也要强化技术治理的作用,加大反AI检测技术的运用,提升人类对AI作品的识别能力,积极利用技术手段监管、反制技术所引起的风险。