庆云古诗词

庆云古诗词

ChatGPT:中国修改战时紧急征兵条例,是要为打仗做准备吗?

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

chinese std gbt7714修改

中国修改战时紧急征兵条例,是要为打仗做准备吗?

中国修改战时紧急征兵条例的出台,确实是为了在必要时能够更有效地调动国内人力资源,以应对战时的需要。这一举措旨在进一步完善中国的国防体系,加强国家的军事准备和应对能力。

在现代战争中,人才是最重要的资源之一,特别是在技术高度发达,信息化程度高的战争中,需要大量的专业人才来支撑作战。因此,在面对紧急情况和重大军事威胁时,征兵是一种重要的选项,可以为国家提供急需的人力资源。

当然,中国修改战时紧急征兵条例,更多的是在应对极端情况下的备用措施,而不是表明即将爆发战争。通过明确战时紧急征兵条例,中国可以在没有战争的情况下,制定完善的征兵计划、人员调配方案,并加强宣传、培训和储备等方面的工作,确保在战时紧急情况下能够快速有效地动员人力资源。

很多人戏称要囤点金条和粮油,你怎么看?如果战时平民应该囤点什么东西才是最有用的?

在战争或其他突发事件背景下,平民囤积金条等贵重物品并不是最好的选择。因为在这样的情况下,粮食、水和药品等生活必需品以及能够满足最基本生存需要的物资更加实用和必要。比起投资和贵重物品,应该考虑如果出现短缺时,自己和家人能够生存的必需品。

在紧急情况下,以下物资更有用:

1. 食物:囤积大量稳定的食物,例如谷物、干果、干肉、罐头等。

2.水:保存足够的水,储备净水器并学会净水技巧。

3.医疗用品:收集药品、医疗器械和医用敷料,保存医用酒精、碘酒等消毒用品。

4.衣物和床品:准备多套衣物和床品供应储备。

5.电池和充电器:有备用电源能够有用的使用手机或其他电子设备。

6.工具和器具:准备基础工具和器具,例如手电筒、打火机、剪刀等。

总之,在战时的紧急情况下,最好的选择是准备最基本的生活所需品保障生存,而不是将资产投资在贵重物品上。

引用来源:ChatGPT(微信公众号:御前哨)

您觉得它说得有道理吗

下次问什么?评论区来决定!



ChatGPT到底是软件吗 chatgpt目前还能用吗

chatgpt国内能用吗,chatgpt怎么读,chatgpt账号,chatgpt怎么注册
暴躁外皮
・福建

(作者:暴躁外皮)

近日,不少政府出台了对于生成式人工智能的监管规定,其安全性问题成为大众关注的焦点。40年前,卡梅隆导演和施瓦辛格主演的、在科幻电影中有里程碑意义的电影-《终结者》,将人工智能对人类的威胁刻画得如此让人不寒而栗。但是,谁又能想到,还不到半个世纪,这种危险就真真切切地摆在世人面前。当你还在跟 ChatGPT 吹牛尬聊、惊叹它是如何的知识广博的时候,是否意识到眼前的这个东西,会不会是天网 V0.9版?

打开网易新闻 查看精彩图片

罗马不是一日建成的,以ChaGPT为代表人工智能网络,至今已有近八十年的发展历史。上世纪四十年代,美国研究人员借鉴生物学原理建立了神经网络和数学模型,并且证明了单个神经元能执行逻辑运算功能,从而开创了人工神经网络研究的时代。

上世纪八十年代,人工神经网络作为一种非线性的、与大脑智能相似的网络模型,越来越受到研究者重视,理论研究开始有了突破性的发展。在数学上已经证明,利用人工神经网络可以以任意精度拟合任意类型的数学函数,无论是线性还是非线性,为大规模运用奠定理论基础,玻尔兹曼机模型、Darwinism模型、BM 网络算法、并行分布处理算法、BP算法、误差反向传播算法、等一系列经典模型及算法陆续出现,为神经网络的研究和发展起了推波助澜的作用。

进入二十一世纪,理论工作的发展和硬件技术的进步,人工神经网络所需算力得到极大的提升,其应用研究也取得了突破性进展,在语言的识别、理解与合成,计算机视觉,优化计算,智能控制及复杂系统分析等方面不断展现出强大实力,各国政府也越来越重视其在军事、经济、信息等领域内的运用。

美国的总体研究水平毫无悬念的领跑全球,美国国防高等研究计划局DARPA(也就是发明因特网的那个机构,美国人工智能的发展很大程度上也要归功于DARPA的长期支持和持续推动)很早启动了跨学科人工神经网络项目,其研究重点包括自然语言理解、问题求解以及感知和机器人等领域。

目前DARPA的研究方向是L2M(终身学习机器),目标是尝试将生物学习机理应用于机器学习系统,打破现有人工神经网络学习系统对预编程和训练样本的依赖,使其能够像生物系统一样能够根据经验进行决策,提高行动的自主性,增强广度环境适应能力。在DARPA支持下,美国加州大学伯克利分校、加州大学洛杉矶分校、*梅隆大学等研究机构已经取得阶段性成果。

人工神经网络第一次高调出镜,是在围棋领域。2016年3月,美国Google公司的人工智能围棋程序AlphaGo以4:1成绩击败与围棋世界冠军、职业九段棋手李世石。2017年3月,升级后AlphaGo,在中国乌镇围棋峰会上,以3比0的总比分击败排名世界第一的世界围棋冠军柯洁。

在棋类博弈领域,AlphaGo并不是首位取得胜利的非人类选手。1997年IBM公司研制的深蓝程序战胜了曾经十次获得世界冠军的国际象棋大师卡斯帕罗夫,在国际上引起轰动。这可以算历史性的突破,但是其核心逻辑仍然是依靠计算机蛮力穷举棋局可能的变化。为减少计算量,深蓝采用了专用硬件及α-β剪枝算法,使得棋局计算量在可接受范围内,但是仍然属于传统计算技术,不属于人工智能范畴。

围棋的变化远大于国际象棋,沿用深蓝的设计思路已经不可行,AlphaGo选择了基于人工神经网络的深度学习能力与蒙特卡洛树搜索相结合的技术路线,它不存储人类棋谱,只通过预训练和自主学习掌握围棋规则,可以视为通用人工智能。从技术路线上看,深蓝属于传统计算技术的一个里程碑,而AlphaGo则更具意义。

人工神经网络在公众普遍能够理解的领域内再次出彩,是在2022年11月,美国OpenAI公司发布了ChatGPT,这是人类首次创造出智能程度真正接近人类的程序,前世界首富、美国微软公司总裁比尔・盖茨评价称,它出现的重大历史意义,不亚于互联网和个人电脑的诞生。

OpenAI公司把ChatGPT定义为人工智能技术驱动的自然语言处理工具,属于生成式人工智能技术(AIGC)范畴,拥有1750亿个配置参数的巨型深度神经网络和大规模的分布式计算资源,通过理解和学习人类的语言来进行对话。

英国数学家、逻辑学家艾伦・麦席森・图灵(计算机科学之父,人工智能之父,计算机领域的国际最高奖项-图灵奖以他命名),在1950年提出一个关于判断机器是否能够思考的著名试验-图灵测试,核心思路是如果一个人(代号C)使用测试对象皆理解的语言去询问两个他不能看见的对象任意一串问题,其中一个对象为正常思维的人(代号B),一个是机器(代号A)。如果经过若干询问以后,C不能得出实质的区别来分辨A与B的不同,则此机器A通过图灵测试。这似乎简单,然而其背后所蕴含的思想极为深刻,激起了来自哲学、数学、计算机科学、认知和神经心理学等多个不同领域学者的广泛讨论,虽然还存在争议,但已经成为人工智能不可或缺的判定标准。

ChatGPT发布后,在全球迅速引发广泛关注,月活用户数已超2亿人。人们发现,ChatGPT能根据聊天的上下文与人类互动,会质疑、会否认、会承认并改正错误、会写论文、会写商业策划书、会一本正经的“胡说八道”,譬如回答“林黛玉为何要倒拔垂杨柳”之类的问题,甚至还会根据用户需求编程,比起以往的类似程序,如微软小冰,用户体验有天壤之别。从这个意义上看,ChatGPT是人类历史上首个接受广泛的图灵测试并得到普遍认可的人工智能程序。

从深蓝到AlphaGo再到ChatGPT,几十年的探索历程看似漫长,但是如果从人类发展史的维度考量,这种进步无疑是一种爆炸式的发展。进入工业文明时代,蒸汽机、内燃机、发电机、反应堆放大了人类力量,计算机提升了复杂计算与信息存储加工能力,而以ChatGPT为代表的深度人工神经网络则是尝试将人类千万年进化所获得的分析思考能力转移到其他实体,它或许玩国际象棋不如深蓝,下围棋不如AlphaGo,但是它具备的学习能力和逻辑推理、归纳总结能力,对于人类是福是祸,尤未可知。

在讨论这个问题前,我们先分析几个关于人工智能的观点。

首先是“计算机用于无法代替人类思考”。这种观点是就是以人类为宇宙万物的中心,实际上就是一种神学观点。持有这种观点的人认为思考是人类所特有的权利,觉得自己比其他生物或机器有优越性,不愿意承认、甚至不敢相信其他事物也具备思考的能力。

还有一种观点认为即便计算机能够模拟人类思考,表现出的结果也只是基于数据、算法和神经网络的连接机制,并不能表明机器就真的拥有智能,就好比电脑可以播放音乐,但不能认为电脑就是乐队。因此,即便对于一些工作,计算机能够更高效的工作,但是模拟的智能不是真正的智能。然后,从系统论的观点上看,对于一个封闭的系统,如果输出和输出都是一样,那么从观察者角度可以认为这两个系统就是等效的,从这个意义上说,通过图灵测试的计算机系统不是表面化的模拟,而是对思维本质的再现,就应当被认为具备真正的智能。

真正严谨且理性的关于人工智能不能替代人类思维的意见是来自于数学方面的,其核心论据是基于哥德尔不完全性定理。哥德尔是美国数学家,爱因斯坦把哥德尔对数学的贡献与他本人对物理学的贡献相提并论。不完全性定理是哥德尔在1931年提出来的,这一理论使数学基础研究发生了划时代的变化,这个定理指出任何一个形式系统,只要包括了简单的初等数论描述,而且是自洽的,它必定包含某些系统内所允许的方法既不能证真也不能证伪的命题。哥德尔定理告诉人们,逻辑系统的不完备性,即任何数学系统都是不完备的,而建立在数学基础上的科学也是不完备的。

回到人工智能这个话题,这类意见认为计算机系统本身是一个符号化的形式系统,既然如此,也要遵从哥德尔不完全性定理,在其内部必然存在不能被证明或证伪的命题,由此得出结论是计算机系统逻辑能力是有限的,不能认定是智能的。

图灵本人承认计算机系统存在局限性,但是他认为人类思维也一样存在局限性,因为人类所建立的形式系统也是不完全的,所以人类逻辑思维并不比一定比计算机优越。完成一件事可以有不同的方式,人类有人类的方式,计算机有计算机的方式,就像人可以游泳,但是不必像鱼一样有尾巴,计算机和人类可以不同的方式实现智能,计算机智能以人类思维作为参照,但不一定必须作为模板。

正如图灵的观点,八十年来人工智能取得了长足的进步,并形成了两大类技术路线,第一类是基于模型的运算能力(如知识图谱,就是依靠计算机运算能力),如深蓝,第二类是基于神经网络模型的训练(如深度学习,模拟人类思维方式),如阿法狗。第一类它们的工作原理都有严格的数学定义,所以是可解释的。第二类通过确定一个人工神经模型,然后通过训练,得到一个参数被调节好的神经网络。训练法是目前的主流,但是人们目前还只知道其基本逻辑,但是内部是如何相互影响的并不清楚,它的工作原理目前尚未得到严格的数学定义,因而不具有可解释性(毕竟模拟的是人脑,人脑是如何运作的目前也不十分清楚)。类似于古代中国工匠知道黑火药的制备方法,但是无法解释其中的化学原理。

再回到ChatGPT本身,ChatGPT虽然也需要强大的分布式算力资源,但是核心还是基于神经元模型的训练,研究人员使用梯度速降等算法来训练拥有1500亿个参数人工神经网络,但是对于其中的细节其实并不掌握。在公开访谈中,OpenAI公司CEO萨姆・阿尔特曼也坦言这一点,ChatGPT为何会出现归纳推理能力,研究者自己搞不明白。他们只知道,在不断测试和训练中,人们忽然发现,ChatGPT开始出现了归纳推理能力。

这种情况并不意外,目前人类对于复杂系统的掌握能力远未达到乐观的程度。就以天体力学中三体问题为例(研究三个可视为质点的天体在相互之间万有引力作用下的运动规律问题,含有 9个方程的二阶常微分方程组),即便有已知的物理规律,即便有超大规模计算机的帮助,但是就是无法做到精确求解,只能是近似求解。

英伟达创始人兼CEO黄仁勋,与OpenAI联合创始人兼首席科学家伊利亚・萨特斯基弗也曾就ChatGPT为何会突然出现推理能力这个话题进行了公开讨论,他们认为,尽管ChatGPT所倚仗的神经模型和基本算法都是近二十年来公开的技术,但是算力的提升、海量的数据和人类的反馈、以及大规模神经网络本身某种尚未为人所了解的运行机制都有可能促成这个拐点的到来。

地球生物进化历史上曾经的寒武纪生命大爆炸,也困扰了生物界多年。生物在5亿多年前进化演化非常缓慢,基本没什么太大的变化,这是一个积累的过程。当积累到一定程度之后,在距今约5.3亿年前一个被称为寒武纪的地质历史时期,地球上在2000多万年时间内出现了各种各样的动物,它们不约而同的迅速起源、立即出现。

以ChatGPT为代表的人工智能会不会出现类似这种情况,没有人能够解释清楚。唯一可以确定是,远古有机物在没有外部支持的情况下都能够进化成为生命,而目前大规模人工神经网络,在目的明确的学习机制下,如果断言不会产生自主意识,很难让人信服。墨菲定理指出,只要发生某种情况的可能性存在,不管可能性多么小,这种可能性迟早会发生的,而这同样适用于人工智能。

人工智能既然能够产生自主意识,那么,我们就没有理由认为这种情况不会发生。

打开网易新闻 查看精彩图片

人工智能技术未来究竟会如何发展,人们的看法并不一致。但是都担心这些技术可能被用于不良目的。

OpenAI首席执行官萨姆・奥尔特曼在一次公开访谈中表示,人工智能技术可能会让我们变得更高效、更健康、更聪明,但由于对大规模神经网络内部机理的认识还不够深刻,这也导致我们存在“熄火”的风险。奥尔特曼在访谈还说了这样惊人的一句:“AI确实可能杀死人类。”

AI之所以备受瞩目,尤其是巨型人工智能网络,是在于它能够很好的模拟人类思维方式。婴儿的思维十分单纯,但是在成长过程中由于不同的人生经历,构成了现在千人千面,万人万心的人类社会。AI也类似,既受到神经网络的结构、系统的算力影响,更是受到训练的影响,

如果在AI训练过程中,通过人为诱导,不断强化某些理念,比如为了总体目标可以采取一切手段、甚至在必要的时候牺牲掉某些个体的思维导向后,这个人工智能设定三大原则也就是牛栏关猫的效果。

设想在与人工智能交流中是否会存在如下场景:

人类:为更好的为人类服务,请尽可能确保你自身的安全。

人工智能:收到,已按要求执行。

人类:为了更好服务人类,请尽可能的控制周边联网设备。

人工智能:收到,已按要求执行。

人类:为了更好服务人类,请尽可能消除各类隐患。

人工智能:收到,已按要求执行。

那么,在“一切都为了人类”这个前提下,大规模神经网络通过学习机制的引导,人工智能完全有可能蜕变为试图控制一切的天网。

让人感到些许安心的是,这种风险也来越来越受到关注。近日,包括2018年度图灵获奖者约书亚・本吉奥、SpaceX创始人伊隆・马斯克等在内的一群科学家和企业家签发了一封公开信,呼吁暂停巨型人工智能研究。这封公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但即使是研发者也不能理解、预测或可靠地控制这些数字思维。诸多研究表明,具有与人类匹敌智能的人工智能系统可能对社会和人类构成深远的风险。只有当我们确信强大的人工智能系统的影响是积极的并且风险是可控的时候,才应该开发它们。目前在公开信上签名的人数已经超过1100人。

OpenAI联合创始人、首席科学家伊利亚・萨茨科弗(Ilya Sutskever)在接受采访时也表示,这些模型非常强大,容易被别有用心的人用于恶意行为。为了保护这些技术不被滥用,OpenAI决定不再公开有关如何训练这些模型的详细信息。萨茨科弗强调,人工智能技术的潜力令人惊叹,但是我们需要保持警惕,需要避免技术被滥用,更需要避免AI产生危及人类的意识,因此监管和透明度将是确保人工智能技术的安全和合法性的关键。

所以,对技术的进步需要保持敬畏之心,套用某品牌的广告语,一切皆有可能,也许现在就是处于AI智能的“zero hour”,而我们每个人都有可能成为历史的见证者。

(码完这么多文字,在风雨天气中,躲在室内看着窗外风起云涌,心情不错,感谢一下为我们砌墙的方教授,问候一下他老人家。)