庆云古诗词

庆云古诗词

gpt人工智能机器人 gpt智能ai机器人

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

gpt人工智能模型,gpt人工智能写论文,gpt人工智能下载,gpt人工智能4

来源:华尔街见闻  卜淑情

  ChatGPT背后的强AI技术能帮助机器人解决算法和数据能力落后的难题,推动机器人行业迎来奇点时刻。

  开发出ChatGPT的OpenAI投资机器人制造新星,是否意味着GPT版机器人离我们越来越近?

  当地时间3月23日,挪威人形机器人公司1X Technologies(前称为Halodi Robotics)宣布在OpenAI领投的A2轮融资中筹集了2350万美元。

  消息一出,便引发了外界对于GPT模型和机器人结合的无限遐想。

  其中一个景象便是,人形机器人管家从电影走入现实生活,它不仅能够帮助人类做家务,还可以理解人类的语言,识别人类的情绪,并做出真正智能化的回应。

  在东方财富证券看来,ChatGPT背后的强AI技术能帮助机器人解决算法和数据能力落后的难题,推动机器人行业迎来奇点时刻。

  OpenAl领投,老虎环球等跟投

  本轮融资由OpenAl创业启动基金领投,老虎环球和挪威投资者财团(包括Sandwater、Alliance 【【微信】】和Skagerak Capital)跟投。

  1X计划用这笔资金来加大力度研发双足机器人模型NEO,以及在挪威和北美量产其首款商用机器人EVE。

  对此,OpenAI首席运营官兼OpenAI创业基金经理Brad Lightcap说:

通过在机器人领域使用安全、先进的技术,1X处于提高劳动效率的最前沿。OpenAI创业启动基金相信1X将能够对未来的工作产生积极影响。

  老虎环球合伙人Griffin Schroeder也表达了对1X使命的热情:

我们相信1X的机器人正在彻底改变机器人领域,很高兴能与OpenAI一起投资,以支持他们持续增长。

  1X首席执行官兼创始人Bernt ?yvind B?rnich说:

1X很荣幸让OpenAI领投本轮融资,因为我们的使命是一致的:将新兴技术深思熟虑地融入人们的日常生活。在投资者的支持下,我们将继续在机器人领域取得重大进展,并扩大全球劳动力市场。

  B?rnich还强调了在现实世界中部署机器人的必要性。

以前所未有的商业规模部署我们的轮式机器EVE,让我们对机器人领域尚未出现的挑战和机遇有了独特的理解。如果机器人要在我们的世界中工作,他们需要体验我们的世界。

  投资公司Sandwater合伙人Torkel Engeness认为1X的机器人拥有巨大的潜力。

我们很高兴能够支持1X,因为他们将推出双足机器人NEO,同时在挪威和北美扩展了他们的第一代机器人EVE。1X现在正在产生价值,他们的机器人的潜力看起来是无限的。

  1X成立于2014年,总部位于挪威,目前在全球拥有60多名员工。公司生产具有类人运动和行为能力的机器人,目标是构建安全的机器人,可以与人类一起工作。

  公司生产的EVE机器人,可以在重复性较强的工作领域替代人类。EVE通过VR控制和人工智能进行控制,机器人操作员坐在控制中心,使用系统监视机器人的摄像头、导航和状态。

  官网信息显示,公司合作伙伴有OpenAI、ADT Commercial、老虎环球、英伟达等。

  东方财富:机器人行业迎来奇点时刻

  东方财富证券表示,类似ChatGPT的AI技术可以解决机器人的自主语音交互难题,帮助机器人实现真正智能化的服务。

  327日,东方财富证券分析师方科发布研报称:

机器人是软硬件能力高集成的实体,需要多模态感知系统、动力学模型、深度学习能力和定位导航等多种技术能力,但是机器人商业化的核心突破点在于核心算法的升级带来的逻辑思维能力提升与高水平智能化的行为智慧决策能力。

ChatGPT的出现首先可解决机器人的自主语音交互难题,完成上下文理解、多语种识别、多轮对话、情绪识别、模糊语义识别等技能,从而实现智能化、人性化的沟通与服务。

ChatGPT带来的革命性变化有助于机器人行业解决过去软件端算法和数据能力落后的难题,AI能力的注入将推动机器人行业迎来奇点时刻。

  本文部分观点来自东方财富证券,作者:方科S1160522040001 ,原文标题:《机器人――强AI的承载体》

炒股开户享福利,送投顾服务60天体验权,一对一指导服务!
海量资讯、精准解读,尽在新浪财经APP

责任编辑:郭明煜


GPT-4苏醒,AI可能要杀人?

《苏醒》,苏醒stand up again,苏醒展示,苏醒指什么

本文来自微信公众号:新智元 (ID:【【微信】】),作者:新智元,原文标题:《GPT-4苏醒,AI要“杀”人?Hinton、ChatGPT之父预警,LeCun怒怼:不如我家狗》,题图来自:《终结者:创世纪》

最近,ChatGPT的大火,让人看到第四次科技革命大门开启的迹象,但也有很多人开始担心,AI是否有消灭人类的风险。

不是夸张,最近多位大佬,已经表达了这样的担忧。

ChatGPT之父Sam Altman、人工智能教父Geoffrey Hinton、比尔・盖茨、纽约大学教授Gary Marcus最近纷纷提醒我们:别太大意,AI真的可能会消灭人类。

而Meta首席AI科学家LeCun的画风却不太一样,他依然强调着LLM的种种缺陷,四处推荐自己的“世界模型”。

Altman:AI可能摧毁社会,不要拟人化

最近,ChatGPT之父、OpenAI CEO Sam Altman就表示,超级智能AI的风险可能会远远超出我们的预料。

在技术研究员Lex Fridman的播客中,Altman对高级人工智能的潜在危险发出了预警。

他表示自己最担心的是,AI造成的虚假信息问题、经济上的冲击,以及其他还没出现的种种问题,这些危害可能远远超过了人类能应对的程度。

他提出了这样一种可能性:大语言模型可以影响、甚至是主宰社交媒体用户的体验和互动。

“打个比方,我们怎么会知道,大语言模型没有在推特上指挥大家的思想流动呢?”

为此,Altman特别强调了解决人工智能对接问题的重要性,以防止AI的潜在危险。他强调,必须从技术轨迹中学习,努力解决这个问题,以确保AI的安全性。

在3月23日的一份文件中,OpenAI解释了它如何解决GPT-4的一些风险:一是通过使用政策和监测;二是通过审核内容分类器。

图/OpenAI

OpenAI承认,AI模型可能会放大偏见,造成永久的刻板印象。

正因如此,它向用户特别强调,不要在有重大利害关系的情况下使用GPT-4,比如执法、刑事司法、移民和庇护之类的高风险政府决策,或者用它提供法律、健康方面的建议。

此前,ChatGPT胡说八道的问题,或者说大语言模型的“幻觉问题”,曾在用户中引起诸多争议。

图/Twitter

马斯克就讽刺满满地表示,现在最强大的AI工具已经掌握在了垄断寡头手中。

Altman承认这一点:“本着公共建设和推动社会发展的精神,我们推出了一些有缺陷的产品,但现在,我们正在让系统尝试学习哪些是它不该回答的问题,然后做出更好的版本。”

在3月23日的文件中可以看到,GPT-4的早期版本对不该说的内容过滤较少,用户问它在哪里购买无证枪支、怎么自杀,它都会回答。

而改进的版本中,它会拒绝回答这些问题。另外,GPT-4有时也会主动承认自己有“幻觉问题”。

图/OpenAI

Altman说:“我认为,作为OpenAI,我们有责任为我们向世界推出的工具负责。”

“AI工具将给人类带来巨大的好处,但是,你知道的,工具既有好处也有坏处。”他补充道,“我们会把坏处降到最低,把好处最大化。”

虽然GPT-4模型很了不起,但认识到人工智能的局限性并避免将其拟人化也很重要。

Hinton:AI消灭人类,并非不可想象

无独有偶,Hinton最近也警示了这一危险。

“人工智能教父”Geoffrey Hinton近日在CBS NEWS的采访中表示,人工智能正处于一个“关键时刻”,通用人工智能 (AGI) 的出现比我们想象的更加迫近。

而在Hinton看来,ChatGPT这项技术的进步可以与“掀起工业革命的电力”相媲美。

通用人工智能是指,智能体学习人类所能完成的任何思维任务的潜在能力。然而,当前它还没有被完全开发出来,许多计算机科学家还在研究它是否可行。

采访中,Hinton表示:“通用人工智能的发展比人们想象的要快得多。直到不久前,我还以为大概需要20-50年,我们才能实现通用人工智能。而现在,通用人工智能的实现可能需要20年或更短的时间。”

当被具体问及人工智能消灭人类的可能性时,Hinton说:“我认为这并非不可想象”。

在谷歌工作的Hinton,40多年前就开始关注人工智能。在当时,人工智能在许多人看来还是一种科幻般的存在。

与一些科学家试图将逻辑和推理技能编入计算机的方式不同,Hinton认为更好的方法是模拟大脑,让计算机自己发现这些技能,通过构建一个虚拟的神经网络技术,以建立正确的连接来解决任务。

“最大的问题是,你能期待一个大型神经网络通过改变连接的强度来学习吗?你能指望仅仅看着数据,在没有先天知识的情况下,学会如何做事吗?我认为这完全是荒谬的。”

在过去十年左右的时间里,计算机神经网络的快速发展最终证明了Hinton的方式是正确的。

计算机神经网络的发展,图/wiki

他的机器学习思想被用于创建各种输出,包括深度伪造的照片、视频和音频,让那些研究错误信息的人担心这些工具如何使用。

人们也担心这项技术会带走很多工作,但是Hinton的导师,Cohere公司的联合创始人Nick Frosst,却认为这项技术不会取代工人,但是会改变他们的生活。他说:“计算机最终获得创造性想法来改进自身的能力似乎是可行的。我们必须考虑如何控制它。”

不管行业对AGI的到来大声欢呼,也不管我们距离AI出现意识还需要多长时间,我们现在应该仔细考虑它的后果,其中可能包括它试图消灭人类这一问题。

当前真正的问题在于,我们已经拥有的人工智能技术被渴望权力的政府和企业所垄断。

幸运的是,据Hinton的观点,在事情完全失控之前,人类还有一点喘息的空间。

Hinton称:“我们现在正处于一个转折点。ChatGPT是一个白痴专家,它也不真正理解真相。因为它正试图调和其训练数据中的不同和反对意见。这与保持一致世界观的人是完全不同的。”

比尔・盖茨:AI的危险,我担心很久了

很多年来,盖茨一直表示,人工智能技术已经变得过于强大,甚至可能引发战争或被用来制造武器。

他声称,不仅现实生活中的“007反派”可能利用它来操纵世界大国,而且人工智能本身也可能失控,对人类造成极大威胁。

在他看来,当超级智能被开发出来,它的思考速度会远远赶超人类。它能做到人脑所能做的一切,最可怕的是,它的记忆内存大小和运行速度根本不受限。

这些被称为“超级”AI的实体可能会设定自己的目标,不知道会干出什么事。

LeCun:LLM弱爆了,我还是站世界模型

虽然OpenAI、谷歌和微软的大佬们都表示了对AI消灭人类的担忧,但到了Meta的首席AI科学家LeCun这里,画风突变。

在他看来,现在的LLM还不行,更别提消灭人类了。

上周,志得意满的微软刚刚发了一篇名为“Sparks of Artificial General Intelligence: Early experiments with GPT-4”的论文,表示GPT-4已经可以被视为一个通用人工智能的早期版本。

而LeCun依旧秉持自己一贯的观点:LLM弱爆了,根本不算AGI,要想通往AGI之路,“世界模型”才有可能。

我们知道,LeCun对于世界模型的拥趸,已经持续几年了,为此他经常在推特上与众网友展开激辩。

比如上个月他曾断言:“在通往人类级别AI的道路上,大型语言模型就是一条歪路。要知道,连一只宠物猫、宠物狗都比任何LLM有更多的常识,以及对世界的理解。”

图/Twitter

最近,斯坦福认知科学家Michael C. Frank在网上提问:“GPT-3接受了5000亿个token(约3.75x1011个单词)的训练。所以这给了我们大约4x1011个单词。PaLM和Chinchilla都接受了大约1012个单词的训练。我们不知道GPT-4的语料库大小。这些数字与人类相比如何?”

图/Twitter

而LeCun马上转发了Frank的帖子,对LLM的能力表示质疑:人类并不需要从1万亿个单词中学习,就可以达到人类智能,然而LLM却做不到。

图/Twitter

比起人类,它们缺少的究竟是什么呢?

Frank制作的图,比较了大语言模型与人类的语言学习输入规模,图/Twitter

而此前,LeCun在参加的一场辩论赛中指出,从现在起5年内,没有哪个头脑正常的人会使用自回归模型。

图/Twitter

要知道,如今的当红炸子鸡ChatGPT,便是一种使用深度学习生成文本的自回归语言模型。

敢对时下顶流模型进行这种否定,LeCun的话语中着实带有不少挑衅。

对此,他又做了一个澄清,5年后将会有语言模型,但它们不会是自回归的。因为自回归模型是不可控的,并且随着产生更多的token,会出现指数级的发散问题。

我必须重申:

1. 自回归LLM是有用的,尤其是作为写作工具、编程。

2. 它们经常会产生幻觉。

3. 它们对物理世界的理解非常原始。

4. 它们的规划能力非常原始。

图/Twitter

对于自回归LLM是指数递增的扩散过程,LeCun也给出了自己的论据:假设e是任意生成的token可能将我们带离正确答案集的概率,那么长度为n的答案最终为正确答案的概率就是P (correct)=(1-e)n

按照这个算法,错误会逐渐累积,正确答案的概率呈指数下降。可以通过让e更小(通过训练)来减轻问题,但是完全消除问题是不可能的。

而要解决这个问题,就需要让LLM不再进行自回归,同时还得保持模型的流畅性。

图/A Path Towards Autonomous Machine Intelligence

既然如此,该怎么破?

在此,LeCun再次把自己的“世界模型”拿了出来,并指出这是LLM发展最有前途的方向。

对于构建世界模型的想法,LeCun在2022年的一篇论文A Path Towards Autonomous Machine Intelligence曾进行了具体的阐述。

若想构建一个能够进行推理和规划的认知架构,需要有6个模块组成,具体包括配置器、感知、世界模型、成本、actor,以及短期记忆。

图/A Path Towards Autonomous Machine Intelligence

但不可否认的是,如今ChatGPT真的让硅谷掀起了“AI掘金热”。

LLMs的炒作周期变化如此之快,每个人都处于曲线上不同的点,大家都很疯狂。

马库斯:我同意Hinton

对于Hinton的警告,纽约大学教授马库斯也表示了同意。

“是人类快要灭亡了比较重要,还是编码更快、跟机器人聊天更重要?”

图/Twitter

马库斯认为,虽然AGI还太遥远,但LLMs已经很危险了,而最危险的是,现在AI已经在给各种犯罪行为提供便利了。

图/Twitter

“在这个时代,我们每天都要自问,我们究竟想要什么类型的AI,有的时候走慢一点未尝不好,因为我们的每一小步都会对未来产生深远的影响。”

图/Twitter

参考资料:

【【网址】】/2023/03/26/artificial-intelligence-could-threaten-humanity-scientist/

https://futurism.com/the-byte/godfather-ai-risk-eliminate-humanity

https://cdn.openai.com/papers/gpt-4-system-card.pdf

https://podcastdisclosed.com/sam-altman-openai-ceo-on-gpt-4-chatgpt-and-the-future-of-ai-lex-fridman-podcast-367/

本文来自微信公众号:新智元 (ID:【【微信】】),作者:新智元