庆云古诗词

庆云古诗词

关于chatgpt的哲学思考

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


孤独大脑
・北京

“一些未知的东西正在做我们不知道的事情。”

阿瑟・爱丁顿

“为何不尝试制作一个模拟儿童思维的程序呢?”?

艾伦图灵

“只要是人脑能提出的问题,它就能够得到解决。”?

库尔特哥德尔

开始

1、有人说,ChatGPT是个文科生。这么说,只因为ChatGPT是一种大型语言模型,基于自然语言处理技术,通过深度学习模型对大量文本数据进行训练,从而学习到语言的规律和语义表达。

2、有人说,ChatGPT是个理科生。

自然语言处理本质上仍然是计算机语言。其发展的第二阶段是基于统计的机器学习,第三阶段是基于神经网络深度学习,和人类的语言学规则关系不大。3、还有人说,ChatGPT是个体育生。创造了阿尔法狗的哈萨比斯认为,ChatGPT仅仅是更多的计算能力数据的蛮力,并对这种“不优雅”的方式感到失望。本文将从一道经典的“两孩难题”开始,引出ChatGPT背后的概率思维,以及19世纪以来人类面临的不确定性困境自亚里士多德与柏拉图之间的辩论开始,到休谟和贝叶斯二人隔着历史的相杀相爱,再到不愿意相信上帝是在扔骰子的因果哲学坚守者爱因斯坦,人类在哲学和科学范畴里纠结于确定性与不确定性,并且越陷越深。我偏向于用一种介于“乐观”和“怀疑”之间的态度来评判ChatGPT引发的又一轮AI热潮。本文将用一种个人化的方式,从零基础数学计算的源头,再推演一遍贝叶斯公式,和概率推理的机制,以及神经网络的基本原理。进而,经过了简单但却可感知的数学计算,我们就可以顺着休谟的经验主义和怀疑论,一路奔袭到罗素的逻辑原子主义,直至维特根斯坦的立场:语言的界限,就是世界的界限。人工智能的变迁,几乎对应着人类认知世界的变迁结构。从确定性到不确定性,从物理定律到统计概率,物理和信息交汇于“”,并以类似的达尔文观念,进化出有生命的熵减系统。?在这个愈发茫然的世界里,AI在疫情后时代获得了世人额外的关切;诸神已被人类背弃,算法用强大而未知的相关性替代了神秘主义因果霸权,仿佛成为新神。真实与信念,确定与随机,意识与虚无,再次于大众的狂欢之中,对峙在时代的断崖边缘。

我们来看99%的聪明人都搞错了的问题。问题:一个家庭里有两个孩子,其中一个是男孩,假设每个孩子是男孩女孩的概率一样,那么另一个孩子也是男孩的概率是多少?直觉上,生男生女绝大多数时候是独立事件,其中一个是男孩,并不会影响另外一个孩子性别的概率,所以答案难道不是50%吗?有些顶尖聪明人说:不对。正确的答案应该是1/3。用古典概率的计算方法如下:

两个孩子的性别共有4种情况:

(男,男)、(女,女)、(男,女)、(女,男)

请注意,上述第三种和第四种情况,特别强调了老大和老二的区别。

如上四种情况中,其中一个是男孩共有3种情况:

(男,男)、(男,女)、(女,男)

另一个也是男孩只有1种情况:(男,男),所以概率是1/3。

麻烦来了:这是不是说,一个家庭假如有了一个男孩,再生一个男孩的概率就变成1/3了?

这不科学啊。

聪明如你,应当能从这看似严谨但其实含混的表述中发现秘密:

上面的计算,考虑了“有一个男孩家庭”里男孩是老大或老二的两种可能,但是却忽略了问题里“一个男孩”在“两个孩子都是男孩的家庭”里也有老大和老二两种可能。

所以,仅就本文开头题目的表述而言,答案仍然应该是1/2。?

让我们在这个经典的“两孩难题”上再前进一步。

坚持认为正确答案是1/3的聪明人,会拿出贝叶斯公式。?

他们认为,本文开头的题目,不是古典概率问题,而是条件概率问题。

所谓“条件概率”,是指:事件A在另外一个事件B已经发生条件下的发生概率。

条件概率表示为:P(A|B),读作“在B条件下A的概率”。

根据该公式,计算如下:

条件B:两个孩子其中一个是男孩。

考虑其对立事件:两个孩子都不是男孩,或者说两个孩子都是女孩。

P(B)=1-(1/2)×(1/2)=1-1/4=3/4

事件A:另一个也是男孩。

事件A、B同时发生:两个孩子都是男孩

P(AB)=(1/2)×(1/2)=1/4

P(A|B)=P(AB)/P(B)=(1/4)/(3/4)=1/3

所以,P(A|B)=1/3。

慢着,这是语言游戏吗?

答案到底是1/2,还是1/3??

难道贝叶斯公式也错了吗??

这一节的计算是“对”的,但根据该计算得出的结论应该是:

你观察到的这个男孩,来自两孩家庭的概率是1/3。?

我不止一次地看到,即使是很聪明的人,以及专业人士,都在如上这一问题上绕不出来。

为什么呢?

因为语言的世界,不同语言的世界,个体观察的世界,不同个体观察的世界,以及上帝视野的世界,和所谓“真实“的世界,似乎都不是同一个世界。?

在微软的报告里,研究者用GPT-4模拟了一段对话:

苏格拉底:我的朋友,我对最近这些所谓自回归语言模型的兴起感到不安。

亚里士多德:你是什么意思,苏格拉底?

苏格拉底:我的意思是,这些模型被用来生成看起来是人类写的文本,但实际上是由机器产生的。

亚里士多德:那有什么问题呢?

苏格拉底:问题是,这些模型被用来欺骗人们,操纵他们,控制他们。

亚里士多德:但这些模式肯定也有一些积极的应用?

苏格拉底:可能是这样,但我仍然对滥用的可能性感到不安。毕竟,一个能够生成与人类所写的文字无法区分的模型可以被用来传播假新闻,冒充他人,并制造宣传。

亚里士多德:但这不只是一个如何使用这些模型的问题,而不是模型本身的问题吗?

苏格拉底:我不同意。我认为这些模型本身就有问题。它们是一种伪装的形式,一种创造幻觉的方式,是人类思想和互动的一部分。因此,它们可以被用来以难以察觉的方式进行欺骗和操纵。

亚里士多德:但这不正是你反对修辞和演说的理由吗?

苏格拉底:是的,我也坚持这个观点。我相信,任何旨在欺骗或操纵的艺术或交流形式都是内在的危险。

亚里士多德:我明白了。谢谢你分享你的想法,苏格拉底。

乔布斯曾经设想过如上的对话,他预测有一天可以用计算机捕捉亚里士多德的底层世界观,如此一来人们就可以和他亲自对话了。

反对修辞和演说的苏格拉底认为:感觉是不可靠的,感性认识是不确定的,只有理性才能够认识事物本身。

而在亚里士多德的方法里,他将修辞确定为哲学的三个关键要素之一。另外两个则是逻辑辩证法

亚里士多德认为,逻辑关注的是用推理达到科学确定性,而辩证法和修辞则关注概率。后者适用于人类事务。

上面两段文字我摘自网络百科,虽无法确认其原文与出处(尤其是概率那部分),却令人叫好。

然而,在随后的年代里,亚里士多德的逻辑和确定性知识体系更大程度地影响了人类。

人们信奉因果论和决定论,在牛顿的推动下,世界仿佛是一个由无数个精密齿轮构成的机器,在上帝的首次推动下,持续有条不紊地运转着。

而另外一条线索亦在孕育之中。休谟的怀疑论和经验主义彻底改变了人们的思想世界,他认为感性知觉是认识的唯一对象,人不可能超出知觉去解决知觉的来源问题。

在休谟看来,客观因果并不存在。

随后康德试图对理性主义和经验主义进行调和,他否认客观因果联系,但主张用先天的理智范畴对杂乱的经验进行整理。

马赫则开创了经验批判主义,他强调直接讨论观测数据,科学定律只是被视为以最经济的方式对数据进行描述的手段而已。

《科学推断》一书认为,他开启了现代方法论的主要进展。

曾经深受马赫影响的爱因斯坦,无法接受这种对科学信仰的破坏性,以及对法则、公式、定律的轻视,后来与其分道扬镳。

爱因斯坦用探索性的演绎法建构了逻辑严谨的原理,他相信宇宙有解,不相信鬼魅之力。

某种意义上,爱因斯坦是最后的牛顿(除了用斯宾诺莎的“神”替代了上帝),是科学因果决定论的捍卫者。

1967年,波普尔对如上交织而漫长的哲学历程做了一个了结,他提出了三元世界的观点,布尔金将其绘制如下:

打开网易新闻 查看精彩图片

这似乎是柏拉图洞穴理论的现代版。

看看,人是多么无知,又是多么分裂啊!

基于这样的结构,波普尔提出:我们无法证实这个世界,无法证实规律和定理,只能去证伪

也许你还记得上一代的老实人工智能--深蓝。庞大的机器,手工制作无尽的代码,多名参与其中的职业棋手,以及暴力算法,虽然打败了卡斯帕罗夫,却如流星般闪过。《麻省理工科技评论》将深蓝形容为恐龙,而这一代的神经网络(尤其是深度学习)则是生存且改变地球的小哺乳动物。上世纪50年代,香农曾经乐观地预测AI将很快出现,事实并非如此。失败的主要原因是:

人工智能的创造者们试图用纯粹的逻辑来处理日常生活中的混乱,他们会耐心地为人工智能需要做的每一个决定都制定一条规则。但是,由于现实世界过于模糊和微妙,无法以刻板的方式进行管理。
我们无法像是依照牛顿的原理造车般,用发条思维和专家系统来打造智能系统。那一类AI不仅狭窄,而且脆弱。ChatGPT是经验主义进化论的“胜利产物”。

经验主义亦称“经验论”。作为一种认识论学说,与“理性主义”相对。经验主义认为感性经验是知识的来源,一切知识都通过经验而获得,并在经验中得到验证。

这正是ChatGPT的思考和学习路径。

虚拟进化又指数级放大了基于经验的学习速度。在波普尔看来,科学发展本身就是一种进化

ChatGPT不仅从时间的角度加速模拟了进化,还通过大模型从空间的角度拓展了可能性之广度,以至于令人们禁不住又惊又喜地探讨起涌现

那么,人工智能是如何思考的?又是如何决策的?

有别于齿轮般的演绎推理,我们需要借助概率在证据和结论之间建立起联系。

AI的任务是做决策,在不确定性下结合信念与愿望,选择动作。

《人工智能:现代方法》如此描述:

由于部分可观测性、非确定性和对抗者的存在,真实世界中的智能体需要处理不确定性(uncertainty)。智能体可能永远都无法确切地知道它现在所处的状态,也无法知道一系列动作之后结束的位置。

此外,智能体的正确的动作――理性决策,既依赖各种目标的相对重要性,也依赖它们实现的可能性和程度

为了进行不确定推理,我们需要引入信念度,例如牙痛患者有80%的概率存在蛀牙。

?概率论提供了一种概括因我们的惰性与无知而产生的不确定性的方式。

除了概率,智能体在做决策时还需要一个概念:效用理论。?

例如,你要去机场,假如提前90分钟出发,赶上飞机的概率是95%;提早120分钟出发,概率提升至97%。

那么,是不是应该越早越高,追求赶上飞机的最大概率呢?如此一来,你可能要提前一天或者更早住在机场了。

大多数时候不必如此,但假如你有一个无法错过的会议,或者要赶国际航班,提早一天住到机场,可能是最佳决策。万豪酒店最早就是靠洞察到商务人士的这一需求而崛起的。

由此,我们得出决策论的通用理论:

决策论=概率论+效用理论

以上的现代方法,离不开两个未曾谋面的古代敌手。

在诸多反对休谟的人当中,贝叶斯也许是最重要的一位。

当休谟斩断了因果之间的必然联系时,最恼火的莫过于教会,因为上帝一直被视为因果的第一推动力。

一个人往往要到了一定岁数,才能够理解休谟的哲学。尤其是我们这些从小接受确定性训练的人。

逻辑推理的基本形式是:如果A,则B。

休谟则说,如上这类推理要么是幻觉,要么是胡说八道,要么是自圆其说。

据说虔诚且又擅长数学的牧师贝叶斯是为了反驳休谟,而研究出了贝叶斯公式。?

一个神奇的结局出现了,贝叶斯公式反而成为了休谟哲学的现实解药,将其大刀斩断的因果,用逆概率的悬桥连接了起来。?

概率,将逻辑推理的形式修正为:如果A,则有x%的可能性导致B。

而贝叶斯公式,则完成了一个小小的(却产生了无法估量的巨大影响)由果推因的颠倒:

如果观察到B,则有x%的可能性是因为A导致。

如此一来,被休谟怀疑的世界,继续晃晃悠悠地构建出更为庞大繁复的、以概率关联的因果网络。

假如贝叶斯试图反击休谟的动机是真的,就为“要爱惜你的对手”添加了有力论据。?

让我们用一个简单的贝叶斯计算,来看看智能体如何学习经验。

题目:黑盒子里有两个骰子,一个是正常骰子,扔出数字6的概率是1/6;一个是作弊骰子,扔出数字6的概率是1/2。

这时,你从中摸出一个骰子,扔了一次,得到一个6。

请问:你再扔一次得到6的概率是多大?

计算的第一步,是计算这个骰子是正常骰子和作弊骰子的概率分别是多大。

请允许我跳过贝叶斯公式快速计算如下。

是正常骰子的概率为:1/6 ÷(1/6+1/2)=1/4

是作弊骰子的概率为:1/2 ÷(1/6+1/2)=3/4

计算的第二步,更新这个骰子的信息。原来的概率是各1/4,但现在分别是1/4和3/4。

那么,再扔一次,得到6的概率就是:1/4×1/6+3/4×1/2=5/12。?

从本质层面理解如上这个简单的计算并不是容易的事情:

两次扔骰子都是独立事件,为什么第一次扔骰子得到6的概率和第二次的概率不一样?

贝叶斯概率的解释是,第一次扔骰子得到6的这一结果,作为信息,更新了我们对第二次扔骰子得到6的概率的判断。

疑惑的人会继续问:骰子没有记忆,为什么第一次的结果会“改变”第二次结果呢??

答案是:没有改变结果,只是改变了“信念”

即使扔了两次骰子,我们依然不知道这个骰子是正常的还是作弊的,但我们可以带着这种不确定性向前走,为此需要“猜”这个骰子是正常还是作弊的概率。这个概率,就是信念。?

根据信息的变化,快速更新,体现了某种达尔文式的进化。

从这个角度看,AI推理起初或许弱小含混,却有主动适应性,从经验中不断学习,并快速演化。

以本题为例:第二次扔骰子,从第一次骰子的结果中学习了经验,从而令预测更加精确。

这个过程还可以不断重复,如同发动机般,从而产生了决策和智能的杠杆效应。

如前所述,亚里士多德曾经认为,修辞和概率等不确定性元素,应该应用于人类社会。而在自然科学和数学领域,则是逻辑推理(尤其是数学逻辑)的阵地。

而如今,确定世界已经成为不确定世界,绝对真理也被或然真理替代。

于是,概率不仅成为“真理”的悬梯,甚至成为真理本身。?

《人工智能:现代方法》写道,世界就是这样,实际示范有时比证明更有说服力。基于概率论的推断系统的成功要比哲学论证更容易改变人的观点。

就像两个人就不同的观点争论,一种办法是讲道理,讲逻辑;还有一种办法是:?

我们先下个注,然后试着跑跑看呗。

?

在《人工通用智能的火花:GPT-4的早期实验》的报告里,微软实验室如此表述:“我们过去几年,人工智能研究中最显著的突破是大型语言模型(LLMs)在自然语言处理方面取得的进展。这些神经网络模型基于Transformer架构,并在大规模的网络文本数据体上进行训练,其核心是使用一个自我监督的目标来预测部分句子中的下一个单词。”ChatGPT,是位“语言游戏”的高手,用的是神经网络深度学习这与传统的语言,以及逻辑语言,都不一样。罗素曾经试图构建一套逻辑语言,想从少数的逻辑公理中,推演出数学。他提出了自己逻辑原子主义,试图消除那些形而上语言的混乱,以逻辑语言和我们的现实世界一一对应。在与罗素的相互影响下,维特根斯坦认为哲学的所有问题其实就是语言问题,从而推动了哲学的语言转向。一种西方哲学史观点认为:古代哲学关注本体论,近代哲学关注认识论,20世纪哲学关注语言学问题。

那么,作为“系统地从语言来思考世界的第一人”,维特根斯坦与罗素有何不同?

陈嘉映的论断是:罗素从本体论来思考语言的本质,维特根斯坦则一直从语言的本质来构想本体论。

也许我们能从罗素给情人奥托林・莫雷尔夫人一封信里,发现维特根斯坦哲学上的某些经验主义线索:

“我们这位德国工程师啊,我认为他是个傻瓜。他认为没有什么经验性的东西是可知的――我让他承认房间里没有一头犀牛,但他不肯。”

和每个天才一样,维特根斯坦卓绝,但也疑惑。再说回ChatGPT,它懂语言吗?如同《天才与算法》一书的设问:机器可以在不理解语言或不接触周围物理世界的情况下,生成有意义的句子,甚至是美的句子吗?老派的AI,试图采用罗素的方法。这类模型认为:

“理性和智能是深度的、多步骤的推理,由一个串行过程指挥,并由一个或几个线程组成,使用少量的信息,由少量的强相关变量来表达信息。”
对比而言,“现代的机器学习模式由浅(少步)推理组成,使用大量信息的大规模并行处理,并涉及大量弱相关变量。”一个有趣的来描述二者对比的例子是,电影《模仿游戏》里的图灵,炒掉了自己的密码破解小组里的语言学专家。《人工智能:现代方法》认为,纯粹的数据驱动的模型,对比基于“文法、句法分析和语*释”的手工构建方法,更容易开发和维护,并且在标准的基准测试中得分更高。该书作者还提及:
可能是Transformer及其相关模型学习到了潜在的表征,这些表征捕捉到与语法和语义信息相同的基本思想,也可能是在这些大规模模型中发生了完全不同的事情,但我们根本不知道。
未必那么精确的类比是:AI如孩子般学习语言。这正是当年图灵所所设想的:有一个孩子般的大脑,然后去学习。而非一开始就设计一个成年人的大脑。孩子不懂语法构建,也没有成熟的逻辑,也远没有成年人那样有主动的刻意练习。可是想想看,成年人学习语言的效率,与孩子对比,是不是烂到渣?我不禁联想起一个对教育的嘲讽:天生就是语言学习天才的孩子,却要在一辈子都学不好一门语言的成年人的指导下学习语言让我们来看看,AI如何像一个孩子般,天才般地学习。

AI的神经网络,是对人类大脑和基于社会化网络的人类群体智慧模仿游戏

人类大脑神经元结构和工作原理如下:

打开网易新闻 查看精彩图片

图片来自《深度学习的数学》一书。

以上原理,用计算模拟和解释,就是:神经元在信号之和超过阈值时点火,不超过阈值时不点火。

20世纪五六十年代,奥利弗・塞弗里奇创造了名为“鬼域”的概念。这是一个图案识别设备,其中进行特征检测的“恶魔”通过互相竞争,来争取代表图像中对象的权利。

“鬼域”是生动的关于深度学习的隐喻,如下图:

打开网易新闻 查看精彩图片

图片来自《深度学习》一书。

上图是对当前多层次深度学习网络的隐喻:

1、从左到右,是从低到高的恶魔级别。

2、如果每个级别的恶魔与前一个级别的输入相匹配,就会兴奋(点火)。?

3、高级别的恶魔负责从下一级的输入中提取更复杂的特征和抽象概念,从而做出决定。然后传递给自己的上级。

4、最终,由大恶魔做出最终决定。

《深度学习的数学》一书中,依照如上隐喻,用一个生动的例子,讲解了神经网络的工作原理。

问题:建立一个神经网络,用来识别通过 4×3 像素的图像读取的手写数字 0 和 1。

打开网易新闻 查看精彩图片

第一步:输入层

12个格子,相当于每个格子住一个人,分别编号为1-12。如下图。

打开网易新闻 查看精彩图片

第二步:隐藏层

这一层,负责特征提取。假设有如下三种主要特征,分为为模式A、B、C。如下图。

打开网易新闻 查看精彩图片

不同的模式对应着相应的数字格子的组合。如下图。模式A对应的是数字4和7,B对应5和8,C对应6和9。

打开网易新闻 查看精彩图片

第三步:输出层

这一层,从隐藏层那里获得信息。

打开网易新闻 查看

从ai盲杖看边缘智能的未来发展 open ai会让美国重新富有吗

从ai盲杖看边缘智能的未来趋势,智能盲杖设计图,智能盲杖的项目建设方案,智能盲杖怎样识别红绿灯

・印度电子和信息技术部认为,人工智能的扩展将对印度的创业和商业发展产生“动力效应”。为了使印度成为人工智能领域的全球领导者,印度政府已经实施了“国家人工智能计划”。

・OpenAI表示,“虽然我们等了6个多月才部署GPT-4,以便更好地了解其功能、好处和风险,但有时可能需要花费更长时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商需要确保人工智能的开发和部署在全球范围内得到有效管理。”

印度政府当地时间4月5日表示,不打算监管人工智能的发展,认为该行业对该国来说是一个“重要和战略性”的领域。

最近几天,众多声音呼吁加强对人工智能的审查。意大利政府3月31日对ChatGPT实施了临时禁令,理由是担心它违反了欧盟的《通用数据保护条例》(GDPR),此举引发欧洲多国开始探讨是否对生成式人工智能展开监管措施。当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对ChatGPT的开发机构OpenAI展开调查,涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。

当地时间4月5日,面对一系列监管反弹,OpenAI发布声明《我们对人工智能安全的方法》,称“确保人工智能系统安全构建、部署和使用对我们的使命至关重要”。

印度暂不考虑立法或监管人工智能

印度电子和信息技术部在一份书面答复中称,该部门已经评估了与人工智能相关的道德问题和偏见与歧视风险,正在实施必要政策和基础设施措施,以在该国培育一个强大的人工智能部门,政府没有考虑制定法律或监管人工智能的发展。

印度电子和信息技术部认为,人工智能的扩展将对印度的创业和商业发展产生“动力效应(kinetic effect)”。“人工智能是数字经济和创新生态系统的动力提供者。政府正在利用人工智能的潜力,通过数字公共平台提供以公民为中心的个性化和互动服务。”

这份文件也指出,由于决策中的偏见和歧视、侵犯隐私、人工智能系统缺乏透明度以及伤害责任界定等问题,人工智能存在道德问题和风险。印度2018年6月发布的《国家人工智能战略》(NSAI)强调了这些担忧。为了解决与人工智能相关的道德问题和潜在风险,各中央和邦政府部门和机构已开始努力标准化负责任的人工智能开发,使用和促进最佳实践的采用。

《国家人工智能战略》提议为研究和采用人工智能开发一个生态系统,即#AI for ALL。为了使印度成为人工智能领域的全球领导者,印度电子和信息技术部已经实施了“国家人工智能计划”,旨在建立一个综合计划,利用变革性技术来促进包容、创新和采用以产生社会影响。

尽管美国和许多发达国家市场对人工智能的兴趣急剧上升,但印度进入该领域的初创企业数量有限。印度的战略举措可能鼓励有才华的人探索机会。

欧美情况复杂

上周,包括特斯拉首席执行官埃隆・马斯克和苹果公司联合创始人史蒂夫・沃兹尼亚克在内的上千人签署一封公开信,敦促所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。

3月31日,意大利个人数据保护局宣布从即日起禁止使用ChatGPT,限制OpenAI处理意大利用户信息,并开始立案调查。意大利个人数据保护局认为,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。而该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据。同时,该机构还指责,尽管根据OpenAI的条款声称该服务面对13岁以上的用户,但并没有使用任何过滤机制来验证用户的年龄。

在意大利暂时禁止ChatGPT后,其他欧洲国家也开始研究是否需要更严厉措施来控制聊天机器人,以及是否要协调这种行动。

虽然欧洲议员对“欧盟人工智能法”的内容和范围存在分歧,但一些监管机构发现,现有的工具,如让用户控制其个人信息的《通用数据保护条例》可以适用于迅速崛起的生成式人工智能公司类别。

法国和爱尔兰的隐私监管机构已经与意大利的同行联系,以了解更多关于禁令的依据。德国数据保护专员告诉《商报》,德国可能会跟随意大利的脚步,出于对数据安全的考虑禁止ChatGPT。

“我们正在跟进意大利监管机构。”爱尔兰数据保护专员的发言人说,“我们将与欧盟所有的数据保护机构就此事进行协调。”

瑞典的隐私监管机构则表示没有计划禁止ChatGPT,也没有与意大利的监管机构进行接触。西班牙的监管机构表示,它没有收到任何关于ChatGPT的投诉,但不排除未来会进行调查。

虽然隐私监管专员赞成更多的监管,但政府却更加宽松。意大利兼基础设施与可持续交通部长马泰奥・萨尔维尼批评了本国监管机构的决定,称其反应过度,德国政府发言人表示没有必要禁止ChatGPT。

一位消息人士说,意大利当局上周的举动旨在与OpenAI开始对话,以解决在ChatGPT遵守欧盟数据保护规则方面提出的问题,而不是禁止该工具。OpenAI在欧盟没有办事机构。

在北美,加拿大隐私专员办公室(OPC)宣布对OpenAI展开调查。该机构的一位隐私专员表示,人工智能技术及其对隐私的影响是OPC的优先事项,“我们需要跟上快速发展的技术并保持领先,这是我作为隐私专员重点关注的领域之一。”

美国总统拜登当地时间4月4日表示,人工智能是否危险还有待观察,但科技公司有责任确保其产品在公开之前安全。据《纽约时报》上个月报道,虽然一些美国立法者对人工智能表示担忧,但很少有人积极寻求监管。

OpenAI正在研究儿童验证选项

可能是为了回应这些监管风声,OpenAI当地时间4月5日发布声明,称OpenAI致力于保持强大的人工智能安全且广泛有益。

OpenAI紧急发布声明,回应蔓延全球的监管风波。

这份声明称,“在发布任何新系统之前,我们会进行严格的测试,聘请外部专家提供反馈,努力通过人工反馈强化学习等技术来改进模型的行为,并建立广泛的安全和监控系统。例如,在我们的最新型号GPT-4完成培训后,我们花了6个多月的时间在整个组织中努力,在公开发布之前使其更安全、更一致。我们认为,强大的人工智能系统应该接受严格的安全评估。需要监管以确保采用此类做法,我们与政府就此类监管的最佳形式积极合作。”

OpenAI承认,尽管他们努力在部署前预防可预见的风险,但在实验室里能学到的东西是有限的。所以他们认为,随着时间的推移,从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。“我们通过自己的服务和API提供我们最强大的模型,以便开发人员可以直接将这项技术构建到他们的应用程序中。这使我们能够监测滥用并采取行动,并不断制定缓解措施,以应对人们滥用我们系统的真实方式――而不仅仅是关于滥用可能是什么样子的理论。”

“至关重要的是,我们认为社会必须有时间更新和适应越来越强大的人工智能,每个受这项技术影响的人都应该在人工智能如何进一步发展方面拥有重要的发言权。迭代部署帮助我们让各种利益相关者更有效地参与到关于采用人工智能技术的对话中,而不是他们没有这些工具的第一手经验。”声明前调。

OpenAI表示,其安全工作的一个关键重点是保护儿童,要求必须年满18周岁,或年满13周岁但经父母批准才能使用其人工智能工具,并正在研究验证选项。“当用户试图将儿童性虐待材料上传到我们的图像工具时,我们会将其阻止并报告给国家失踪和受剥削儿童中心。”声明称。

在作为争议焦点的隐私方面,OpenAI称,虽然他们采用的一些培训数据包括公共互联网上提供的个人信息,但他们希望模型了解世界,而不是个人。因此,他们努力在可行的情况下从培训数据集中删除个人信息,微调模型以拒绝对个人信息的请求,并回应个人从系统中删除其信息的请求。

OpenAI最后表示,“虽然我们等了6个多月才部署GPT-4,以便更好地了解其功能、好处和风险,但有时可能需要花费更长时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商需要确保人工智能的开发和部署在全球范围内得到有效管理,这样就不会有人为了取得进展‘偷工减料’。”