庆云古诗词

庆云古诗词

A股收评:沪指收跌1.12% 超4300只个股下跌|A股|瑞信|沪指

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

A股收评:沪指收跌0.72% 芯片股全面爆发,沪市收盘指数,沪深股市收盘指数,沪市收盘价计算公式

  大盘全天低开低走,截至收盘,沪指跌1.12%,深成指跌1.54%,创业板指跌1.51%,北证50跌1.83%,超4300只个股下跌。黄金、供销社、农业、ChatGPT概念涨幅居前,军工、煤炭、油气、有色、光伏领跌。两市全天成交额8450亿元,较昨日放量267亿元,北向资金净买入7.87亿元。

  盘面上,光伏板块全线杀跌,德业股份、晶澳科技跌停隆基绿能、晶科能源、天合光能、阳光电源、TCL中环跌超5%。ChatGPT相关概念表现活跃,蓝色光标、当虹科技、万兴科技涨超10%。

  板块热度:

  同花顺热股榜:

  异动回顾:

  09:26 A股三大指数集体低开,上证指数跌0.58%,深证成指跌0.67%,创业板指跌0.73%。避险情绪升温,黄金板块开盘活跃,次新股四川黄金10连板;光刻胶、半导体、油气、国资云跌幅居前。

  09:32 法尔胜触及跌停,成交额1.23亿元。

  09:32 国家大基金持股板块异动拉升,佰维存储涨超3%,晶方科技、思特威、长电科技、江波龙等跟涨。

  09:39 美容护理板块异动拉升,爱美客涨超3%,奥园美谷、珀莱雅、贝泰妮、水羊股份等跟涨。

  09:41 汽车整车板块异动拉升,汉马科技涨超7%,ST曙光涨超3%,赛力斯、江淮汽车、海马汽车等跟涨。

  09:46 农机板块异动拉升,星光农机涨停,吉峰科技涨超8%,一拖股份、天鹅股份、新柴股份、华力创通等跟涨。

  09:54 三大运营商携手冲高,中国移动涨近3%挑战A股第一市值宝座,中国电信涨超1%,中国联通转涨。

  09:55 光伏逆变器板块再度跳水,德业股份跌超7%,固德威跌超5%,阳光电源、昱能科技、锦浪科技等跟跌。

  09:57 ChatGPT概念异动拉升,三六零急速转涨,海天瑞声、云从科技、汉王科技、开普云、科大讯飞等跟涨。

  10:02 6G概念异动拉升,三维通信触及涨停,本川智能、盛路通信、中国卫通、金信诺、中国移动等跟涨。

  10:06 CRO概念持续走低,泰格医药跌超5%,药石科技、百诚医药、康龙化成、药明康德等跟跌。

  10:10 供销社板块走强,天禾股份涨超9%,天鹅股份涨超5%,中农联合、浙农股份、ST大集等跟涨。

  10:13 6G概念板块异动下跌,三大运营商集体转跌,中国卫星、中国卫通、中兴通讯等快速下挫。

  10:19 中药板块异动拉升,江中药业涨超7%,奇正藏药、佛慈制药、昆药集团、盘龙药业等跟涨。

  10:26 医药商业板块异动拉升,国药一致触及涨停,国药股份涨超4%,柳药集团、九州通、重药控股、药易购等跟涨。

  10:36 白酒股震荡走高,山西汾酒、今世缘涨超3%,泸州老窖、老白干酒、金徽酒、贵州茅台等集体拉升。

  10:47 ChatGPT概念集体拉升,三六零涨近8%,汤姆猫涨超6%,海天瑞声、云从科技、昆仑万维、科大讯飞等跟涨。

  13:07 创业板指午后跌幅扩大至1%,成分股中,阳光电源跌近7%,泰格医药跌超6%,温氏股份跌超4%。

  13:22 光伏板块持续下挫,德业股份、晶澳科技触及跌停,晶科能源跌超9%,阳光电源跌超7%,东方日升、爱旭股份、天合光能等跟跌。

  13:46 银行股午后继续发力,中国银行、中信银行涨超4%,长沙银行、工商银行、农业银行、邮储银行、建设银行等纷纷拉升。

  13:57 多只“妖股”拉升,安奈儿触及涨停,金发拉比涨超8%,西安饮食、黑芝麻等快速拉升。

  14:19 A股三大指数均跌超1%,军工、煤炭、油气跌幅居前,4400只个股下跌。

  消息面:

  1、苹果工程师据悉开发类ChatGPT人工智能 有望用于Siri

  据美媒报道,苹果公司正在测试生成式人工智能(generative AI)技术,这些技术有朝一日可能用于Siri虚拟助手,尽管Siri的设计方式存在一些根本性的问题。(新浪科技)

  2、第一共和银行考虑“卖身”

  据知情人士透露,周三被标普和惠誉下调为垃圾级的第一共和银行正在探索包括出售自己在内的战略选择。知情人士表示,该银行也在权衡加强流动性的选择,预计会引起更大的竞争对手的兴趣。他们表示,目前尚未做出任何决定,该行仍可能选择保持独立。第一共和银行周日表示,它有超过700亿美元的未使用流动资金,用于包括美联储和摩根大通在内的各项业务。该公司股价隔夜收跌逾20%,其市值近五个交易日已跌去8成。

  3、赵晓光:过去20多年中国每隔5年一轮牛市 2024年前后牛市可能是两条主线

  据证券时报,天风证券副总裁、研究所所长赵晓光指出,看投资的魅力就在于两类机会:第一,在价值被低估的时候挖掘机会,第二,把握最核心的产业浪潮趋势。“因为我一直讲一个逻辑,过去20多年中国是每隔5年一轮牛市,1999年的5.19,2004年的五朵金花,2009年的4万亿,2014年的互联网和并购,2019年的科创板。如果说2024年前后牛市可能是什么,结论比较清楚,就是我讲的两条主线:一是由AI、物联网、元宇宙带动的这一轮科技行业的新的浪潮重新定义C端和B端,重新提升C端和B端,第二个就是我们国家设计一个顶层的框架,由国企改革为核心的中国特色估值体系。

  4、瑞信将从瑞士央行借款多达500亿瑞郎

  瑞信表示,计划通过一个担保贷款项目向瑞士央行借款至多500亿瑞郎。瑞信还宣布,瑞信国际拟以不超过30亿瑞郎现金回购某些OpCo高级债务证券。瑞信在声明中表示,这笔额外的流动性将支持瑞信的核心业务和客户。瑞信将采取必要措施来创建一个更简单,更专注于客户需求的银行。瑞信还就10种美元计价高级债务证券提出现金收购要约,总代价不超过25亿美元;还宣布另外一项现金要约,涉及4种欧元计价高级债务证券,总代价不超过5亿欧元。两项要约均须满足要约备忘录所载的多项条件,要约于3月22日到期。

  5、国家能源局:2月全社会用电量6950亿千瓦时 同比增长11.0%

  国家能源局:2月份,全社会用电量6950亿千瓦时,同比增长11.0%。分产业看,第一产业用电量84亿千瓦时,同比增长8.6%;第二产业用电量4523亿千瓦时,同比增长19.7%;第三产业用电量1235亿千瓦时,同比增长4.4%;城乡居民生活用电量1108亿千瓦时,同比下降9.2%。1~2月,全社会用电量累计13834亿千瓦时,同比增长2.3%。分产业看,第一产业用电量174亿千瓦时,同比增长6.2%;第二产业用电量8706亿千瓦时,同比增长2.9%;第三产业用电量2485亿千瓦时,同比下降0.2%;城乡居民生活用电量2469亿千瓦时,同比增长2.7%。

  6、国家统计局:2月份商品住宅销售价格环比总体上涨

  国家统计局:2月份,70个大中城市中,新建商品住宅和二手住宅销售价格环比上涨城市分别有55个和40个,比上月分别增加19个和27个。2月份,一线城市新建商品住宅销售价格环比上涨0.2%,涨幅与上月相同;二手住宅销售价格环比上涨0.7%,涨幅比上月扩大0.3个百分点。二线城市新建商品住宅销售价格环比上涨0.4%,涨幅比上月扩大0.3个百分点;二手住宅销售价格环比由上月下降0.3%转为上涨0.1%。三线城市新建商品住宅销售价格环比由上月下降0.1%转为上涨0.3%;二手住宅销售价格环比由上月下降0.4%转为持平。

  7、天然气价格联动新政或于上半年出台

  据界面新闻,一位接近国家发改委的人士表示,国家发改委已开始天然气上下游价格联动的政策制定工作,目前正在各地征求相关意见,“相信今年上半年能够出台”。天然气上下游价格联动,是指气源采购平均成本和基准终端销售价格联动。界面新闻独家获悉的一份文件显示,2月国家发改委价格司给各省(自治区、直辖市)发改委发文称,为研究完善天然气终端销售价格与采购成本联动机制,要求各地就建立健全天然气上下游价格联动机制提出具体意见建议,包括如何确定综合采购成本、如何科学设置启动条件、调价周期和调价幅度等。国家发改委还向各省发改委征询意见,“国家层面统一出台相关指导意见有无必要”。

  8、富士康下半年在印度建设 AirPod 工厂

  富士康获苹果Airpods耳机的订单,计划投资超过2亿美元在印度生产Airpods,计划最早于2024年底开始生产,计划于2023年下半年开始在印度建设Airpod工厂。

  9、国资委:更大力度布局前瞻性战略性新兴产业 在集成电路、工业母机等领域加快补短板

  国务院国资委党委在人民论坛发表署名文章《国企改革三年行动的经验总结与未来展望》:国资国企将全面贯彻党的二十大精神和中央经济工作会议部署,以提高企业核心竞争力和增强核心功能为重点,深入实施新一轮国企改革深化提升行动,坚定不移推动国有资本和国有企业做强做优做大,在建设现代化产业体系、构建新发展格局中发挥更大作用。其中,围绕增强产业引领力深化改革,更好推动现代化产业体系建设。更大力度布局前瞻性战略性新兴产业。加大新一代信息技术、人工智能、新能源、新材料、生物技术、绿色环保等产业投资力度,在集成电路、工业母机等领域加快补短板强弱项,促进支撑国家算力的相关产业发展,推动传统产业数字化智能化绿色化转型升级。

  10、欧盟将加快制定针对破产银行的规则,以应对美国(银行)危机

  欧盟将加快制定针对破产银行的规则,以应对美国(银行)危机。


ai解释关键词


深度学习是一种可以从数据中学习和推理的技术,它可以用一个多层的筛子来比喻。

这个筛子可以自动地调整每一层的孔径和形状,以适应不同的数据和任务。

训练就是调整筛子的过程,需要大量的数据和计算资源。

推理就是使用筛子的过程,相对比较快速和简单。

数据要做成张量,是因为张量可以表示不同维度和形式的数据,而且可以方便地进行数学运算和转换。

你可以把张量想象成一个多面体,它有不同的形状和大小,但是都是由一些基本的元素(数字)组成的。

你可以用张量来表示一维的向量(线段),二维的矩阵(平面),三维的立方体(空间),甚至更高维度的数据(超空间)。

你也可以用张量来表示颜色,声音,图像,视频等不同类型的数据。

你可以用一些数学操作来改变张量的形状和大小,比如旋转,缩放,切片等。

这样就可以让数据适应不同层次和目标的筛子。

GAN算法是一种可以生成逼真的图片,文字,语音等数据的技术 (产品经理的人工智能学习库 - easyAI)。你可以把GAN算法想象成一个画家和一个鉴赏家的对抗游戏。画家的目标是画出能够欺骗鉴赏家的假画,鉴赏家的目标是识别出真假画。他们互相学习,互相提高,最终达到一个平衡点,即画家画出了无法被鉴赏家区分的假画 (CSDN博客-专业IT技术发表平台) 【【网址】】) (知乎专栏 - 随心写作,自由表达 - 知乎)。

在GAN算法中,画家就是生成器(Generator),它接收一个随机的噪声(Noise),通过这个噪声生成数据(Data),记做G(z)。鉴赏家就是判别器(Discriminator),它接收真实数据或者生成数据,然后给出一个评分(Score),表示这个数据有多真实。生成器和判别器轮流训练,生成器试图让判别器给出高分,判别器试图给出低分 (知乎专栏 - 随心写作,自由表达 - 知乎) (CSDN博客-专业IT技术发表平台) (知乎专栏 - 随心写作,自由表达 - 知乎)。

Stable Diffusion

Stable Diffusion是一种图像生成模型,它基于潜在扩散模型(LDMs) (知乎专栏 - 随心写作,自由表达 - 知乎)。LDMs通过在一个潜在表示空间中迭代“去噪”数据来生成图像 (知乎专栏 - 随心写作,自由表达 - 知乎)。Stable Diffusion在LAION-5B的一个子集上训练了一个LDMs,专门用于文图生成(text-to-image) (知乎专栏 - 随心写作,自由表达 - 知乎)。Stable Diffusion可以让文图生成能够在消费级GPU上,在10秒级别时间生成图片,大大降低了落地门槛 (知乎专栏 - 随心写作,自由表达 - 知乎)。

Stable Diffusion 的 潜在扩散模型(LDMs)

想象一下一个画家用一张完全涂满随机颜色的画布开始创作。这个画布代表了我们对某个现象或系统的初步认识,其中有很多杂乱无章的信息和噪音。就像画家需要用橡皮擦和画笔来清除多余的颜料一样,我们也需要使用适当的方法来剔除不必要的信息并推导出有用的结论。

在潜在扩散模型中,我们试图使用网络分析和数学建模等技术来理解一个现象或系统内部的关系和交互。就像画家用画笔添加细节和高光一样,我们可以使用算法和数据分析来揭示隐藏的模式和规律。

通过精心的绘画和修改,画家最终会将一张混乱的画布转化为一幅美丽而富有意义的作品。同样地,在潜在扩散模型中,我们可以仔细地分析和调整我们的模型,以便更好地描述和预测现实世界中的复杂系统。

训练模型方法正好相反。

训练潜在扩散模型的过程可以类比为给画家一个已知的画作和画作对应的关键字,然后逐步地把该画作加入噪音随机扩散成完全涂满随机颜色的画布。

这样画家就学会了如何将噪声和关键字转化成画作。

假设你是一个小学生,正在学习如何识别不同的水果。监督学习就像老师在教你如何辨认苹果、香蕉和橙子一样。老师会给你看一些图片或者实物,告诉你这是苹果,这是香蕉,这是橙子,并且标注每个水果的名称。随后老师会考察你,让你独立辨认不同的水果。同样的,AI的监督学习也需要一定量的训练数据和对应的标签,以便于机器学习和在未知数据上做出正确的预测。

无监督学习就像是你在自己探索和发现的过程中,尝试寻找出水果之间的共性和相似之处。你将图片输入到AI算法中,然后AI会自动地将其分成不同的组,并且每个组都有着相似的特征。在这个过程中,AI不知道每个组代表的具体水果种类,但是它能够将相似的图片归为一类。

通过无监督学习,你可以更好地了解每个水果的不同特征,例如颜色、形状和纹理等,以及它们与其他水果的区别

简单地说,监督学习是有目标的学习,无监督学习是无目标的学习。

用类比的方式描述一下内容,类比于人类,可以这样说:

GPT的训练步骤就像一个人在学习语言的过程。它首先需要有一个丰富的阅读材料,包括各种类型和形式的文本、图片、视频等。它根据自己的兴趣和目标,选择合适的书籍或资源来阅读。它在阅读时,会用自己的方法记住和理解所看到的内容,并不断地检验自己的理解是否正确。它会根据上下文预测接下来会出现什么词语或信息,并与实际结果进行比较。它通过这种方式提高自己的语言能力,可以应对各种不同的场景和任务。

具体来说,GPT的训练步骤包括以下几个方面:

? 收集和准备数据集:就像一个人需要有一个丰富的阅读材料一样,GPT也需要有一个用于训练的数据集。这个数据集应该与它要完成的特定任务或应用程序相关。数据集可以包含文本、图片、视频或其他形式的数据。

? 定义模型架构:就像一个人需要有一个合适的学习方法一样,GPT也需要有一个合适的模型结构。GPT使用了多层的Transformer Decoder结构,每一层都包含了自注意力机制和前馈神经网络。这种结构可以帮助GPT更好地理解语言中的上下文关系和语义信息。

? 对数据进行编码:就像一个人需要有一个合适的记忆方式一样,GPT也需要对数据进行编码。GPT使用了BPE算法,将原始数据分割成一系列子词,并给每个子词分配一个编号。这种编码方式可以帮助GPT更好地处理不同类型和长度的数据,并减少计算量。

? 训练模型:就像一个人在阅读时不断地检验自己是否理解正确一样,GPT也会在训练时不断地更新自己的参数。将编码后的数据输入模型中,利用梯度下降等优化算法更新模型参数。在每个位置上,模型都会根据前面已经看到

? 对数据进行编码:就像一个人需要有一个合适的记忆方式一样,GPT也需要对数据进行编码。GPT使用了BPE算法,将原始数据分割成一系列子词,并给每个子词分配一个编号。这种编码方式可以帮助GPT更好地处理不同类型和长度的数据,并减少计算量。例如,如果GPT要处理一段英文文本,它可能会将这段文本切分成如下的子词序列:[The][quick][brown][fox][chatgpt][over][the][lazy][dog]。然后,它会给每个子词分配一个唯一的编号,如:[1][2][3][4][5][6][1][7][8]. 这样,GPT就可以用一个数字序列来表示这段文本。

? 训练模型:就像一个人在阅读时不断地检验自己是否理解正确一样,GPT也会在训练时不断地更新自己的参数。将编码后的数据输入模型中,利用梯度下降等优化算法更新模型参数。在每个位置上,模型都会根据前面已经看到的文字预测下一个文字是什么,并计算预测结果与真实结果之间的误差。例如,如果GPT要预测上面那段英文文本中最后一个单词是什么,在看到[The][quick][brown][fox][chatgpt][over][the][lazy]

GPT-1就像一个勤奋的学生,它可以从大量的书籍中获取语言知识,然后用自己的方式记忆和理解 【【网址】】)。它不仅可以根据前面的文字预测下一个文字,还可以根据不同的任务要求调整自己的输入和输出 【【网址】】)。

跟GPT-1相比,GPT-2有以下几个区别:

? GPT-2使用了更大的模型结构,包含了更多的参数和层 (知乎专栏 - 随心写作,自由表达 - 知乎)。

? GPT-2使用了更大的数据集,包含了来自互联网上各种领域和语言风格的文本 (知乎专栏 - 随心写作,自由表达 - 知乎)。

? GPT-2没有使用任务相关的输入变换,而是直接将任务作为文本输入模型 (知乎专栏 - 随心写作,自由表达 - 知乎)。

跟GPT-2相比,GPT-3有以下几个区别:

? 数据集的大小和质量:GPT-3使用了一个开源的数据集叫“Common Crawl”,以及其他来自OpenAI的文本,如维基百科条目 (becominghuman.ai) (kdnuggets.com)。这个数据集比GPT-2使用的WebText数据集大得多,达到了45TB 【【网址】】)。这使得GPT-3能够处理更多的主题和领域,而不像GPT-2那样在一些专业化的任务上表现不佳,如音乐和故事创作 (becominghuman.ai) (becominghuman.ai)。

? 模型的规模和复杂度:GPT-3使用了与GPT-2相同的基于注意力机制的架构,但是增加了更多的层数和宽度。GPT-3最大的版本有1750亿个参数 【【网址】】),是GPT-2最大版本(15亿个参数) 【【网址】】) 的116倍。每一层都有96个注意力头,每个头有96x128维度 【【网址】】)。这使得GPT-3能够更好地捕捉语言中的上下文关系和语义信息。

? 任务的泛化能力和灵活性:GPT-3展示了在零样本或少样本情况下完成各种任务的能力,只需要给出一个问题或一个提示就可以得到一个答案或一个结果 【【网址】】)。这些任务包括回答问题、写作、文本摘要、语言翻译、生成代码等 (becominghuman.ai)。这说明GPT-3已经接近实现真正意义上的通用人工智能(AGI)。

跟GPT-3相比,Chat GPT有以下几个区别:

跟GPT-3相比,Chat GPT有以下几个区别:

? 模型的目标和范围:Chat GPT是一个专门为对话任务设计的模型,而GPT-3是一个更通用的模型,可以用于各种与语言相关的任务 【【网址】】)。Chat GPT主要优化了对话的流畅性和一致性,而GPT-3则可以根据不同的输入和提示生成不同风格和内容的文本,如解释代码或写诗 (Zapier | Automation that mochatgpt)。

? 模型的大小和能力:GPT-3比Chat GPT大得多,有1750亿个参数,而Chat GPT只有1.17亿个参数 【【网址】】) (Software DechatgptA | App Dechatgpt | Cubix)。这意味着GPT-3能够生成更多样化和复杂的回应,但也需要更多的计算资源来运行。Chat GPT则更轻量级,可以在更广泛的设备上运行 【【网址】】)。

? 模型的数据来源和质量:GPT-3使用了一个开源的数据集叫“Common Crawl”,以及其他来自OpenAI的文本,如维基百科条目 【【网址】】)。这个数据集比Chat GPT使用的Reddit评论数据集大得多,也更全面和丰富 【【网址】】)。这可能影响了两个模型生成回应时的多样性和细致度。

ChatGPT的训练过程可以用一个比喻来说明:ChatGPT就像一个聪明的聊天机器人,它可以从互联网上获取各种各样的对话数据,然后用自己的方式模仿和学习 (知乎专栏 - 随心写作,自由表达 - 知乎)。它不仅可以理解人们的问题,还可以根据人们的指示生成有趣或有用的回答 (知乎专栏 - 随心写作,自由表达 - 知乎)。它在学习的过程中不断地自我评估和调整,以达到更高的满意度 (知乎专栏 - 随心写作,自由表达 - 知乎)。

GPT-4是OpenAI正在开发的一种新的语言模型,它可以生成类似于人类语言的文本。它是基于GPT-3.5的改进,参数数量从1750亿增加到100万亿 【【网址】】) (zh.wikipedia.org)。它还可以接受图像和文本输入,输出文本 (OpenAI)。它在一些专业和学术的测试中表现出了人类水平的性能,例如通过了模拟律师考试 (OpenAI)。但是,它也存在一些安全和道德问题,例如可能生成有偏见或虚假的内容 【【网址】】)。

GPT-4的训练过程可以用一个比喻来说明:GPT-4就像一个超级学霸,它可以从互联网和其他数据库中获取大量的知识,然后用自己的方式记住和理解 【【网址】】)。它不仅可以看懂文字,还可以看懂图片,并且能够根据人们的指令生成新的文字或图片 【【网址】】) (OpenAI)。它在学习的过程中不断地自我检测和改进,以达到更高的水平 【【网址】】)。它可以通过各种考试,甚至比很多人都要优秀 (OpenAI)。

跟GPT-3相比,GPT-4有以下几个区别:

? 模型的性能和效率:GPT-4比GPT-3有了巨大的性能提升,包括在生成模仿人类行为和速度模式的文本方面的改进 (Botpress | the Generatichatgptots)。GPT-4能够以更灵活和适应性强的方式处理语言翻译、文本摘要等任务 (Botpress | the Generatichatgptots)。

? 模型的规模和参数:GPT-4是目前世界上最大的语言模型,拥有2.5万亿个参数,是GPT-3的14倍 【【网址】】.tw)。这意味着GPT-4可以利用更多的数据和知识来生成更精确和丰富的回应,但也需要更多的计算资源来运行。

? 模型的错误率和推理能力:GPT-4比GPT-3产生了更少的实际错误和其他错误,这在各种测试中得到了验证 【【网址】】.tw)。特别是,在美国律师执照标准考试中,GPT-4位于前10%的考生之列 【【网址】】.tw)。这表明了GPT-4在高级推理方面超过了Chat GPT (msn.com)。