庆云古诗词

庆云古诗词

open ai公司ceo openaiceo是谁

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


撰文/ 张霖郁

编辑/ 张 南

设计/ 琚 佳

来源/? The New York Times,作者:Cade Metz

在美国,ChatGPT(或称GPT-3.5)不是唯一的基于大语言模型的AI产品,它的对手包括谷歌开发的Bard等其他产品,Bard在3月已开始小范围测试。

纽约时报科技记者科德・梅茨(Cade Metz)受邀体验了这款产品,给出的结论是Bard比GPT-3.5或GPT-4.0更为谨慎。

科德对人工智能相关技术的报道超过十年,他曾出版过一本书,里面报道了AI界的天才。

2019年夏天,他接到山姆・阿尔特曼(Sam Altman)的邀请,也就是今天被称为“ChatGPT之父”的山姆,当时他刚拿到微软的10亿美元投资合同。他俩在旧金山附近的一家具有现代风格的小餐馆吃了顿晚饭,山姆住这附近。

吃饭间隙,他举起手机,向科德展示了与微软刚签完的合同,里面阐述了微软将投资10亿美元,目的是帮助OpenAI构建通用人工智能(Artificial General Intelligence)。

山姆一边喝着甜酒,一边描述着OpenAI的计划,他将这一规划比作具有“曼哈顿计划”的威力与意义。

曼哈顿计划是美国陆军在1942年开始实施利用核裂变反应研制原子弹的计划。当时这项工程集中了西方最优秀的核科学家,动员了10万人参与这项工程,历时3年。1945年成功进行了第一次核爆炸。原子弹对全世界所具有的正向和负面的威慑力是每一位科学家都了解的。

山姆告诉科德,曼哈顿计划的领头人奥本海默(Julius Robert Oppenheimer)和他同一天生日,都是4月22日,他暗示了自己的命运。

OpenAI在那一年刚从非营利组织转为营利性组织,山姆从Combinator Y辞去总裁一职,到这家成立仅4年的公司亲自任职CEO,也是在这一年,他和捐款人马斯克(Elon Musk)闹掰,大概是因为机构性质变动或微软的注资,但两人的矛盾当时并没有公开。他们的恩怨请阅读

《马斯克拉黑了OpenAI》

直到近两周,马斯克主动在推特上提及,他们之间的这段纷争才曝光。有意思的是,一个月前,马斯克还接受了山姆的采访,采访地点在特斯拉工厂,两人讨论了年轻人如何创业的话题。

2019年的那一晚,山姆把OpenAI开发的产品影响力比作原子弹,他谈论时好像在聊家长里短一样地轻松,但当时OpenAI公司还不到100人,大家还都不知道微软之后接下来的钱要从哪里凑。

科德坐在山姆对面,感觉在听一部科幻小说。

当时,山姆告诉科德,OpenAI在开发的产品可能会给世界带来繁荣和财富,同时,也可能会让很多人失业,摧毁这个世界。

“我不知道自己做的是好事还是坏事”,山姆说。

抵制

从去年第四季度ChatGPT的发布到今年GPT-4的上市,不同的声音同时出现。

美国未来生命研究所(Future of Life Institute)在3月发布了公开信,并有1000多位人工智能专家和技术领袖签名,呼吁OpenAI和其他公司暂停ChatGPT等系统上的工作,停止训练比GPT-4更强大的AI系统,暂停时间至少6个月。他们认为对“社会和人类构成很大风险”。呼吁的人中包括马斯克。

同时,拜登政府已经介入,邀请行业专家对这一产品进行评估。

3月31日,意大利个人数据保护局以涉嫌违反数据收集规则为由,对OpenAI展开调查,并宣布禁止使用ChatGPT,且暂时限制OpenAI处理意大利用户数据。

意大利个人数据保护局禁令的理由是:“没有任何法律依据表明,为了‘训练’平台运营背后的算法而大规模收集和存储个人数据是正当的。”该监管机构还指责OpenAI未能有效识别用户年龄,根据OpenAI条款,ChatGPT的用户必须年满13岁。

当地时间4月5日,在与意大利个人数据保护局的视频会议上,OpenAI承诺将在处理用户和验证用户年龄的方式上更加透明。山姆参加了这次会议。他们在4月6日向意大利个人数据保护局提交一份关于补救措施的文件,之后意大利数据保护局将评估这一方案。

在我国,百度的文心一言已经发布,更多的互联网大厂或是初创企业正在飞速进入这一赛道,数据安全同样是令人关心的话题。

关于GPT-4

和GPT-3.5相比,GPT-4的主要优势在于它对自然语言的掌握已经非常娴熟,你不会觉得是在和机器对话。

OpenAI在旧金山的办公室

它不仅可以生成流畅和连贯的文本,还可以以各种方式理解和处理文本,如总结、翻译或回答一系列极其广泛的问题。此外,这里所说的翻译不仅是指不同自然语言之间的翻译,还包括语气和风格的翻译,以及跨领域的翻译,如医学、法律、会计、计算机编程、音乐等等。这些技能清楚地表明,GPT-4能够理解复杂的思想。

许多人可能会疑惑,GPT-4是否真正理解了所有这些概念,或者它是否只是在即兴发挥方面比以前的模型好得多,而没有任何真正深刻的理解。

OpenAI对于“真正深刻的理解”唯一的测试手段,就是看它能否产生新的知识,比如证明新的数学定理,而这一能力目前对大语言模型来说仍遥不可及。

GPT-4在需要推理他人心理状态的现实场景中表现优于ChatGPT(GPT-3.5),并且在社会环境中会为共同目标提出合作行动。GPT-4具有非常高级的心智理论水平。

虽然ChatGPT在基本测试中也表现良好,但似乎GPT-4更加心思细腻,能够更好地推理多个行动者,以及各种行动如何影响他们的心理状态,特别是在更现实的场景中。

简单理解,GPT-4比ChatGPT更像人。

一部分行业领导者、人工智能研究员以及权威人士将 GPT 视为一项根本性的技术转变,与网络浏览器或 iPhone 的发明同等重要,但他们之间的分歧主要在于这项技术的未来形态以及应用场景,而另一部分人极力反对,这1000多位科学家以及权威人士充分表达了他们的担忧。

以一当十

“对于当下ChatGPT的炒作短期来看不在我们的掌控范围,已经完全失控了,但长期我们希望是朝着对的方向发展。”山姆告诉科德,总会有一个阶段,大家会明白这些产品将如何改变世界。

山姆今年37岁,看起来有一点孩子气,尤其在和马斯克的对谈中更为明显。2019年上任OpenAI的CEO,他对科德说自己并没有占任何股份,他在OpenAI是拿薪水,每年65000元美金,满足上社保的要求。

山姆生长在圣路易斯,他在2000年进入了当地的预科学校约翰・巴勒斯 (John Burroughs School),这是一间私立学校,以19世纪美国哲学家约翰・巴勒斯名字命名。这所学校当时非常排斥同性恋。

17岁的山姆,作为一名同性恋学生进入该校后,开始带头改变这一风气。

他单独说服老师在教室门口贴上“安全空间”的标志,以表示支持同性恋学生。他还曾要求一位特别恐同的老师张贴“安全空间”标志,只是为了嘲笑那个人。

他非常能说服人。当时教计算机课程的老师认为山姆除了在计算机方面表现出的才华之外,他还能带领同学开拓新方向的能力。

“他有创造力和远见,加上雄心壮志和人格力量,可以说服其他人与他合作,将他的想法付诸实践”,这位老师告诉科德。

格雷厄姆(Paul Graham)也有同样的评价,格雷厄姆是山姆的导师,同时也是【【微信】】的创始人。

两人2005 年认识,当时山姆申请了 【【微信】】 的第一批初创企业名额。他是第一个获得名额的,包括 10,000 美元的种子资金,当时他在斯坦福上大二,之后退学创办了自己的新公司 Loopt,这是一家社交媒体初创公司,可以让人们与朋友和家人分享他们的位置。

“他天生就有说服人的能力。”格雷厄姆说,“如果这不是天生的,至少在他20 岁前他就已经完全掌握了这一能力。我第一次见到 山姆是在他 19 岁时,我当时觉得他很像比尔・盖茨。”

山姆正是凭借他的说服力在2018年底前后在爱达荷州太阳谷举行的技术领袖年度聚会上单枪匹马说服了微软首席执行官萨提亚・纳德拉(Satya Nadella)以及微软首席技术官凯文・斯科特(Ke【【微信】】),最终他们谈判达成协议。

山姆现在说,在斯坦福的短暂停留期间,他从玩扑克的许多夜晚中学到的东西比他从大多数其他大学活动中学到的还要多,扑克教会了他如何读懂人和评估风险。

他之后出售了 Loopt,获得微薄回报后,便以兼职合伙人身份加入了 【【微信】】。三年后,格雷厄姆辞去公司总裁一职,任命了仅28 岁的山姆为继任者。

对立和统一

山姆并不是程序员、工程师或人工智能的研究人员。

他更多扮演的是制定目标、议程,将团队聚集在一起并实现交易的人。在他出任 “YC”的总裁后,他启动了一个新的投资基金和一个新的研究实验室,并将每年提供咨询的公司数量增加到数百家。

在此期间,他还开始投资公司以外的几个项目,包括 OpenAI。最终他决心把精力集中在一个项目上,而他相信这一项目将对世界产生真正的影响。他曾考虑过政治,但最终选择了人工智能。

OpenAI员工在咖啡间办公

据他的弟弟马克斯(Max Altman)说,他相信自己是少数可以通过人工智能研究改变世界的人之一。

与此同时,山姆是一个生活在矛盾中的人,就像他从事的人工智能具有两面极端的属性。

周一到周五,他住在旧金山市中心,周末,他和自己的伴侣奥利弗・穆赫林 (Oli【【微信】】),一位澳洲的软件工程师,两人住到加州的一个牧场,那里有农场工人种葡萄酿葡萄酒,并且养奶牛。

但山姆是一位素食者,养奶牛这件事让人觉得奇怪,但他说:“奥利弗喜欢。”

这是一个安静的农场,位于布满青草的岩石和山丘之间。他们改造了已有25 年历史的房子,外表看起来既朴实又现代,覆盖外墙的钢已完全生锈。

山姆就在市中心和郊野之间居住,也在素食者的饮食却同时被肉制品包围的环境中生活。

科德觉得他是硅谷的产物。

在 2010 年代中期迅速成长,欣喜若狂。2014 年至 2019 年,作为YC的总裁,为层出不穷的新公司提供建议,他足够精明,也亲自投资了几家家喻户晓的公司,包括 Airbnb、Reddit和Stripe。

他认识到一项技术在何时将达到指数级增长,然后顺着曲线走向未来。

在他到硅谷的同一时间,人工智能就存在着争议。他一边和团队推进人工智能,而同时也清醒地意识到这一科技带来的致命杀伤力。

他并不一定受金钱驱动。在OpenAI 65000美元的年薪并不能致富,他之前通过YC投资的项目产生一部分收入。

格雷厄姆说:“有些人赚到足够的钱之后就停止了,但山姆似乎对钱的兴趣度不是特别大。另一种可能是,他从事OpenAI的原因或许是更喜欢权力。”

在加州农场的湖边,科德问山姆,一台模拟人脑的机器是否最终会把人类劳动的价值降为零时,他并不同意,他说无法想象这个世界人类智慧有一天会毫无用处。

注:本文参考了orange ai翻译的《GPT-4 ,通用人工智能的火花》论文

本文由汽车商业评论原创出品


暂停公开信:人工智能全球治理的关键时刻来了

停止人工智能,人工智能被叫停
关注

转自:中国科学报

3月29日,生命未来研究所发布公开信(简称“暂停公开信”),呼吁立即暂停训练比GPT-4更强大的人工智能模型至少6个月,该事件迅速引起了世界范围的广泛关注与讨论。

赞成派如深度学习算法发明者之一、图灵奖得主Yoshua Bengio、特斯拉CEO Elon Musk、加州大学伯克利分校教授Stuart Russell等,署名或声援该公开信。

反对派如深度学习算法发明者之一、图灵奖得主Yann LeCun、Coursera 创始人吴恩达等,认为不应扼杀人工智能进步,所谓“暂停研发”或为“秘密研发”;甚至有激进派如Eliezer Yudkowsky认为应该直接终止人工智能开发。

这场激烈的争辩在社会上也引起轩然大波,一群发明和使用人工智能的科学家居然要反对人工智能研究和开发,这是啥操作?这公开信到底是啥意思?

“暂停公开信”的实质就是“科学家反对自己的科学研究”。如此诡异的事情,在科学史上却不是第一次。

最有名一次案例是科学家反对核武器乃至核科学研究。1945年8月6日和9日,美国对日本广岛和长崎投掷原子弹,瞬时摧毁了两个城市,造成大量人员伤亡,尤其是平民。这是人类第一次公开使用核武器攻击平民城市,由此造成的惨剧直接引发“科学家反对自己的科学研究”。随后,“核伦理”研究和争论风起云涌先后掀起了三次。

第一次热潮是传统核伦理的研究,研究范式是批判主义理论。主要代表性人物是科学家群体,如奥本海默、西拉德、弗兰克、爱因斯坦、鲍林、罗素等,代表作是《弗兰克报告》《罗素-爱因斯坦宣言》以及《维也纳宣言》等,主要观点是反对核战争、反对核武器的毁灭性和邪恶性,强调理性和道德防止核战争的重要性、科学家的责任是推进世界和平等。

第二次热潮是核威慑伦理研究,研究范式是战略威慑博弈理论。主要代表性人物是政治学学者和政治家。学者方面如加尔・阿尔佩罗维兹及其《原子外交:广岛和波茨坦》(1965年)、小约瑟夫・奈及其《核伦理学》(1986年)等,政治家如基辛格及其《核武器与对外政策》(1957年),主要观点是基于核威慑防止核战争、保持核均势并维护核均衡、控制军备竞赛减少甚至消除核武器等。

第三次热潮是核技术使用伦理研究,研究范式是规范伦理理论。受切尔诺贝利核电站事故(1986年)和福岛核电站事故(2011年)刺激,核技术的非传统伦理问题凸显,社会公众介入核伦理,研究重点是核泄漏与环境保护、核伤害与人类权益、核实验和核医疗伦理准则、核电弃用争议、核废料处置安全等。

另外一次案例是科学家反对生物技术研究。20世纪70年代,生物技术在基因编辑和改造的突破性进展,引发了广泛的争议和担忧,尤其是宗教团队反应强烈。基因编辑技术可能导致基因池的破坏和生物多样性的减少,对生态环境造成威胁,影响人类的生存环境。

更为让人提心吊胆的是,基因编辑技术在人类胚胎等领域的应用可能改变人类生命本身,人类未来进化为天使还是恶魔,引发了剧烈的伦理争论。如何在确保技术进步的同时保护人类的尊严和价值观成为重要议题。

1975年的阿西洛马会议,有约140名以生物学家为主的专业人士参加,针对重组DNA技术讨论了其潜在的生物危害和对生物技术的监管,提出了安全使用该项技术进行实验的指导原则。会议还将科学研究纳入到公共领域进行考量,旨在将预防措施应用于公共治理。

随着基因编辑技术的持续“进化”,可遗传人类基因组编辑问题引发了更大争议。科学界对于是否应该暂停该项技术的研发和使用至今未能达成共识。社会领域不同利益相关者的参与,更使得这一问题日趋复杂,辩论从未停止。

科学界方面,2018年12月14日,《科学》在线发表了一篇题为《来自香港的警示》的社论,美国国家医学院院长【【微信】】. Dzau、美国国家科学院院长Marcia McNutt、中国科学院原院长白春礼联合署名,呼吁全球各国科学院携手努力,就基因编辑研究及临床应用所应遵循的准则达成广泛的国际共识。

前面两次“科学家反对自己的科学研究”的最终结果是催生了“核伦理”与“生物技术伦理”。这些对于现实的核科技、生物科技全球治理具有根本性的奠基作用。

我们不妨认为,“科学家反对自己的科学研究”预示着“科技全球治理的关键时刻”来临。ChatGPT及GPT-4是人工智能“深度学习技术”长期深耕的结果。那么,当“暂停公开信”再一次展示发明和使用“深度学习技术”的“科学家反对自己的科学研究”,我们认为,“人工智能全球治理的关键时刻”也来了。

随着以GPT-4为代表的大模型出现,人工智能治理已成为影响未来世界走向的关键问题。从2022年11月30日ChatGPT面向公众发布,到2023年3月15日GPT-4的推出,这一波人工智能的发展快到让人猝不及防。微软创始人之一的比尔?盖茨盛赞ChatGPT是不亚于个人计算机和互联网的发明。因为,ChatGPT的颠覆性突破在“闲聊”,解决了“盖茨问题”――人工智能是否能够理解人类高度基于“上下文”的语言交流内容。

与此同时,随着技术、人与社会的深度融合,以GPT-4技术体系为核心人工智能生成内容(AIGC)全面开花,深入人类的工作场景,如office、Adobe和GitHub的“副驾驶”(Copilot)。如此迅雷不及掩耳的规模化应用将席卷全球,相应带来的信息可信度、隐私和安全、知识产权、偏见和歧视以及对人类创造力和就业的影响,对伦理和治理实施了“极限施压”。

我们必须清楚,这种“极限施压”不是限于一行一业或一个地区一个国家,而是全球全人类的“极限施压”。因此,人工智能伦理与治理也不能限于一行一业或一个地区一个国家,而是面向全球全人类。也就是说,“人工智能全球治理的关键时刻”已来,我们需要全球性的关于人工智能科学研究、技术研发、产业开发和布置使用的伦理思路、治理框架和安全系统,这对于确保人工智能技术的可持续发展和人类福祉至关重要。

“科技全球治理框架”肯定不是学院科学或产业科学的治理框架。传统科学是“学院科学”,“暂停公开信”签名的科学家首先具备某种比较纯正的科学情怀,如爱因斯坦对科学的态度。签名的科学家中以深度学习算法发明者之一、图灵奖得主、加拿大蒙特利尔大学Yoshua Bengio教授为代表。反对或质疑“暂停公开信”的科学家多是企业性质的人员,如深度学习算法发明者之一、图灵奖得主Yann LeCun是Meta的首席人工智能科学家。

此类科学家从事的科学研究属于“后学院科学”中的产业科学,其科学研究的目标不再以发现科学知识为首要目标,而是为了满足商业上的需求而进行基础研究和应用开发。当前人工智能处于第三次高潮,事实表明,企业逐渐替代大学和实验室成为人工智能发展的主力军,如Google有AlphaGo、AlphaZero、AlphaFold序列、OpenAI有GPT序列。

“科技全球治理框架”至少是一种“大科学”治理框架。大科学(Big Science)起源于二战的曼哈顿工程,国家主动出场推动高科技发展和经济发展,科技发展的首要目的是满足国家发展的需要。“暂停公开信”中争论的问题――暂停训练比GPT-4更强大的人工智能模型至少6个月,在学院科学中难以实现,在产业科学中绝无可能。

在浙江大学人工智能专业核心课《人工智能伦理与安全》课堂上,大多数同学认为“暂停公开信”不可行,且没人认为可行。竺可桢学院图灵班的张梓昂同学认为至少有三个原因,任何一个就能导致暂停不可行。

首先,技术上无法停止。深度学习的几次大火和熄火,都经历了“新的网络结构提出-算力堆叠和扩展-堆叠的边际效益递减”的循环。线性层堆叠到极限后,卷积层的提出扩展了深度学习的层数;当卷积层的堆叠不再变得有效时,Transformer注意力机制被发掘出来,用更少的假设,学习到了数据之间更多的关联。现在的关键在于,基于Transformer注意力机制的GPT模型序列或其他大模型尚处于早期,远未触及天花板,继续堆叠算力和数据发掘其潜力的空间很大。

其次,全球经济下行周期导致暂停不可行。尤其是大疫三年,叠加俄乌冲突一年,人们急需新的经济增长点。GPT模型的增长逻辑很简单,而且预期客观,有望成为经济增长点。因为,GPT模型在最基础的理论上没有什么瓶颈,目前存在的限制只有算力和数据。而这两者恰恰是大规模新基建投资拉动经济增长的抓手。算力技术都是成熟的,投资拉动经济就是投建更多芯片厂、制造更多显卡。

数据方面,除了各大社交平台的搜集和挖掘的数据,商业上还可以采取众包方式,即雇佣大量廉价的数据标注工进行数据清洗和产出。政策上也可以通过培育数据交易市场激活市场活力。

第三,竞争导致暂停不可行。ChatGPT已经证明预训练大模型这条路径是可行的。后来者,无论是企业还是国家,相比于第一次研发出ChatGPT的周期,只要注入足够的资源可以很快仿制出类似产品。参考ChatGPT到GPT-4的进步速度,OpenAI等公司的先发优势几乎肯定是在几个月间就荡然无存。因此,暂停研究6个月,网络评论多数认为是痴人梦语。难怪有人调侃马斯克是吃不到葡萄说葡萄酸。

既然在学院科学和产业科学方面,“暂停公开信”是不可行的,那么,“大科学”的“科技全球治理框架”是否可行?这指的是,国家或政府介入是否还有暂停的可能性?回顾历史,我们认为,这也是不可行的。

当年,曼哈顿工程共制造出三颗原子弹,一颗用于验证实验,另外两个怎么用就产生了争议。当初,包括爱因斯坦在内的科学家联名上书美国政府研究和制造原子弹,那是为了防止德国更早制造出原子弹从而导致灾难性后果。然而,当原子弹试验成功后,其颠覆性的威力使得科学家意识到核武器的毁灭性,佛兰克等7名科学家于1945年6月11日联名签署的《佛兰克报告》明确反对使用原子弹,否则将带来一系列的人类灾难。然而,尽管德国已经战败,日本战败也是指日可待,该报告还是被美国政府否决,最终还是对广岛和长崎实施原子弹攻击。

同理类推,指望一国政府在“人工智能全球治理框架”中“暂停比GPT-4更强大的人工智能研发”也是不可行的。

尽管有诸般悲观理由,但也并不意味着在人工智能全球治理问题上,人类只能束手无措、坐以待毙。我们认为,在中国提出全球发展倡议、全球安全倡议和全球文明倡议的基础上,构建一套顶天立地的“天地人”三才框架还是非常现实的。首先,积聚“人和”,即可以由国际间组织牵头召集各方专家磋商,针对人工智能及其他前沿科技,共同制定和实施一套全人类共享的安全协议;其次,构建“天时”,即可以借鉴中国在核伦理领域的治理经验,设置人工智能伦理的顶格要求,为人工智能全球治理提供最大的共识框架;最后,夯实“地利”,即可以借鉴生物技术伦理,加强人工智能伦理和治理全球磋商,以及制定法律法规,预防和惩戒滥用人工智能的行为。

(作者潘恩荣系浙江大学马克思主义理论创新与传播研究中心研究员,辛华钰系浙江大学马克思主义学院博士研究生)