庆云古诗词

庆云古诗词

张红超_你会相信,未来人人都可以是程序员?

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

张红超采访,你知道张红,从张红超身上可以提炼出创业者什么特质,张红张红

原标题:张红超_你会相信,未来人人都可以是程序员?

您将认为将来每个人都能成为程序员?

“我们正处于AI的‘iPhone时刻’。”在GTC讲座期间,长达78分钟,NVIDIA(英伟达)的创始人、首席执行官黄仁勋曾先后3次提出过这种看法。

就在有业内人士感叹奔着GPT4训练要有巨额资金成本扶持的时候,英伟达亲自赶到炸场。这不仅是因为其产品本身具有强大优势,更因为它将帮助企业在最短的时间内开发出一款真正能满足客户需求的新产品。针对到目前为止有史以来用户数量发展最迅速的应用程序ChatGPT,英伟达推出包含硬件迭代与云服务在内的系列结合,其核心宗旨之一,是为了加快运算速度、大大降低了成本。

(ChatGPT是迄今历史上用户数量增长最快的应用,图源:英伟达发布会现场展示)

黄仁勋说,与ChatGPT大型语言模型(LLM)相似的部署是全新推理工作的重要载荷,以支持这种模型推理,英伟达发布一款新GPU,是带有双GPU NVLink的【【微信】】。“在计算性能上,我们使用了两个高性能处理器进行并行加速。”同时基于N【【微信】】架构的H100配有一个Transformer引擎,就是为了应对驱动ChatGPT相似的模式,与GPT3加工用【【微信】】比较,标配四对H100和双GPU NVLink的服务器,最高速度可达10倍。此外还介绍了如何通过在计算节点上增加额外资源来提高其性能。“H100可以将大型语言模型的处理成本降低一个数量级。”他介绍说,“我们已经开发了一种新型算法,该算法能在大规模数据中实现并行化求解。”他接着说。

为何AI变革的过程中GPU显得格外重要?这句话来自AI大模型的训练过程中,基础设施需求为大规模并行计算,这是GPU相对于CPU(串行运算为主)等其他类型计算芯片的显着优势。当然在进行计算时,还需要相应匹配高速数据存储,光模块等、通信和其他一系列功能。

其中,要求英伟达最强烈。在2月公布最新表现的时候,黄仁勋就曾表示:“AI正处于一个拐点,从初创企业到大型企业,我们看到生成式AI的多功能性和能力让全球企业感受到开发和部署AI战略的急迫性。”也就成了当时业绩交流的一个中心关键词。

3月21日晚发言时,他又提到了这一点并指出,“生成式AI是一种新型计算机,一种我们可以用人类语言进行编程的计算机,与PC、互联网、移动设备和云类似,每个人都可以命令计算机来解决问题,现在每个人都可以是程序员。”

黄仁勋说生成式AI就是一种新的计算机,其来源:英伟达的发布会现场

由英伟达与一众伙伴力主,对于前两日仍在热议的“GPT将替代什么专业”话题,好像也没这么麻烦。

算力账单等

首先来看一下在此次炸场前使用英伟达GPU产品布署一个GPT训练所需的力量。

CINNO Research半导体事业部总经理Elvis Hsu对21世纪经济报道记者分析,2023年是ChatGPT元年,组成人工智能的3个主要因素是:数据,算法和算力,其中,尤以对芯片进行算力的研究最为关键。在芯片设计领域,模型训练方法被视为影响未来芯片性能提升的重要因素之一。由于模型训练参数量的使用与算力成正相关,ChatGPT在不断升级的过程,它的参数使用量的增长幅度不能说是很小,投入的经费自然直线上升。每次模型训练都需要几百万至几千万美金,在硬件和云计算服务价格都在发生变化的情况下。

(GPT3论文概要,其参数使用量为1750亿,图源:Open AI官网公布)

“英伟达GPU A100每片约1万美金,除了投入的人力成本、网络宽带成本和数据储存之外,最重要的就负责算力的芯片成本支出,如何降低成本与功耗便成为未来发展AI芯片的重要课题。”他得出结论说。

之所以在这一阶段,更难精确地估算出培训背后所付出的全部代价,是因为OpenAI在最新关于GPT4的论文中,清楚地提及,由于竞争、安全和其他原因,有关模式的具体资料的选取是不开放的。由此看来,业界对GPT4后面具体训练参数量的计算还不是很一致,有人以为万亿级别的,还有人把它看成百万亿的水平。

(GPT4论文中并未公布训练量和模型架构等信息,图源:Open AI官网公布)

当然,这里面最核心的代价考虑是避GPU而不及的。IDC亚太区调研总监郭俊丽还告诉记者,算力为AI模型提供了能量,将会从人工智能推广中获得最为直接的好处,同时也成了GPT4最沉重的成本投入。同时希望能训练出与ChatGPT相似的大型模型,除芯片投入外,还包括一服务器、通信和其他基础设施。

鉴于英伟达GPU关联芯片产品在不同时段内出现了价格波动,后面需要的软件能力配置是不一样,导致它特定算力账本,通常只是个大致设想。

郭俊丽进一步指出,根据参数数量以及token数量的估计,GPT-3培训每次费用大约140万美元;如果使用相同的算法对不同类型的数据进行预测,那么在同等精度条件下,所需计算时间会更短。对部分较大LLM模型,例如,具有2800亿参数的Gopher,具有5400亿参数的PaLM,利用相同公式,可以得到,培训费用在200万-1200万美元之间。

“以GPT-3.5为模型的ChatGPT模型,都要460万-500万美元。据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。以此来推测,GPT4的运行成本将大幅高于GPT3.5。对于想要切入该赛道的企业来说,资金成本将会是一个门槛。”她的结论是。

TrendForce集邦咨询分析师曾伯楷向记者进行了全面剖析,根据GhatGPT的发展过程,其在发展初期约采用1万颗N【【微信】】(以下简称“A100”),经过扩充升级,运算资源估计已等同2万颗A100 GPU。不过,随着用户数量增长及应用场景拓展,未来将需要更多数量的处理器支持新功能,以达到更高计算效率。当前ChatGPT并没有对文本数据进行实时的更新,全部资料仅覆盖到2021年,GPT4的情况亦然,一旦ChatGPT开始更新数据、将更长的生成内容呈现给用户,并且用户数继续增长到1.5亿或更多,那么运算资源大概要扩大一倍了,届时或许要增加1.5-2万颗A100 GPU才能满足算力需求。

“在此基础上推估,大约到2025年,每一款类似ChatGPT的超大型AI聊天机器人算力需求,约等同2.5-4万颗A100 GPU;若以每张A100 GPU显卡价值2万美元估算,总体GPU建置成本将落在5-8亿美元。”他还说,叠加的考虑是GPT4比上一代提升了一个多模态(multimodal)模式,能够对文字输入进行分析、还可以实现图片解读,据估计,超大型AI聊天机器人总体运算资源或许必须重新膨胀约。

从这一观点来看,如果从零开始创造、培养与GPT4相似的超大AI聊天机器人,并能顺畅地为全球用户生成内容,它的构建成本一定是ChatGPT 3.5的两倍。“至于日后成本是否呈现倍数成长,仍取决于三方面:一是大型语言模型的发展趋势,二是全球AI聊天机器人应用的使用情况,三是硬件资源分配优化方案的进展。”“如果我们能够在这三个因素上取得突破,那么我们将可以成为真正意义上的世界级人工智能产品。”曾伯楷续写。

在半导体行业目前还未彻底摆脱周期低点,AIGC在算力方面的要求,无疑为英伟达取得成绩提供了更多的支持,但对其他芯片类型的影响可能就不那么明显了。

Elvis告诉记者,由于在执行计算期间需要大容量、高速存储支持,预期高阶对内存芯片的要求将不断扩大,短期内对低迷市场的助长作用是有限度的,由于普及度不足,但是,这将有助于高性能高带宽内存HBM和大容量服务器DRAM存储器的长期市场增长,对降低训练成本略有帮助。

计算生态方面

在前文计算与判断基础上,业内的一个看法是,目前部署有关AI大模型,需要更多的财力与能力魄力。另一些人认为,人工智能技术是一种新事物,其发展会遇到很多阻力,但它在一定程度上可以降低运营成本。从而引起了进一步的反思:是不是AI大模型只能在这样高昂的代价下运作,一般的企业是否完全没有能力处理?

这在3月21日的发布会上,黄仁勋已经给出了答案:GPU本身已经在通过硬件产品和软件生态服务等综合手段快速实现,有助于更多AI大模型的发展。

GTC期间,英伟达在硬件方面针对大型语言模型发布了新款GPU――带有双GPU NVLink的【【微信】】,配套Transformer引擎,与上一代加工GPT3用【【微信】】比较,配备四对H100和双GPU NVLink标准服务器,最高速度可达10倍,从而使处理大型语言模型所需费用减少了一个量级。

(新版本GPU产品将令AI大模型处理成本降低一个数量级,图源:英伟达发布现场)

同步推出的还包括Grace Hopper超级芯片,黄仁勋认为,在超大型数据集上进行数据处理是一种较为理想的方法,例如,可应用于推荐系统中AI数据库,大型语言模型等。据报道通过900GB/s高速芯片与该芯片进行连接,英伟达Grace Hopper超级芯片可以连接Grace CPU和Hopper GPU。

以加快生成式AI,软件上,英伟达也推出AI Foundations系列云服务,为了要求建设,提高、运行定制大型语言模型及生成式AI为客户服务。

如果从角,除了当前世界GPU霸主――英伟达,能否另辟蹊径,用于探索较低的成本,或由其他计算能力组成的基础设施模型?在未来几年内,或许会有一个被称为“云计算”的概念横空出世。比如CPU+FPGA/ASIC,也可以说是正处于上升中的技术路线――Chiplet芯粒?

Elvis就此接受了记者的采访,在技术架构上,AI芯片通常可划分为GPU,FPGA等、ASIC与类脑芯片4种主要类型。其中,类脑芯片又包括了深度学习、机器视觉、语音识别等多个领域。GPU以矩形并行计算为主要表现方式,在性能和内存带宽上都要比同一代CPU大得多,所以非常适用于人工智能的开发。CPU由于算力所限,但是如果能够匹配到开发周期短、灵活应用度更强的FPGA,或小型化,低功耗与高性能ASIC等,就连芯粒Chiplet也具有低成本优势,亦不失为一个好办法。

曾伯楷指出,AI模型训练目前主要还是依靠GPU来完成,就是由于AI芯片的作用不同,定位也不一样。例如,GPU是专门用于同时执行多个任务的,如加工图形、与图像有关的操作工作。由于芯片使用了统一的渲染架构,能够应用于算法还没有定型的场合,因而通用性程度高、商业化更加成熟。

相比较而言,尽管FPGA,ASIC各有优势和不足,但是,它的历史积累并不充分。“随着技术进步,芯片性能不断提升,芯片价格逐渐下降,芯片市场规模将逐步扩大。”“即便CPU加FPGA或ASIC的单颗成本存在低于GPU的可能,但考虑芯片开发时间、通用性程度、算法成熟度等因素,仍以GPU为主流采用芯片。”一位业内人士告诉记者。他分析说。

在此需补充说明,英伟达制霸GPU领域的原因,除它较早选择该线路,并因此构建出一个非常丰富的CUDA生态,在GPU领域,后来者特别欠缺的竞争力之一。

(黄仁勋称英伟达构建了加速计算的良性循环,图源:英伟达发布现场)

大模型的前景

一方面,底层基础设施伴随软硬件的不断迭代升级,与之相匹配的应用场景有所增加,费用已迅速降低;同时由于用户需求不断提高,在未来几年内仍有大量新技术将被提出并逐步投入实际运用。另一方面随着微软发布Microsoft 365 Copilot,适用于GPT4容量此举,进而反映了应用端的大模型思维方式。

正式上市数月到现在,GPT自身也上演了一场有关商业化探索和实战训练迭代的故事。

作为一项尤为强悍的智能工具,距离“每个人都有可能成为程序员”这件事,还有多远?

郭俊丽告诉记者,与ChatGPT的前版相比较,GPT4有4个优势:

更加可靠和有创造力地了解和处理命令中的细微部分;

拥有较高智慧,学术及专业考试成绩接近人类最优秀的水准;

接受图文类模特的录入,可以扩展到机器人和智能驾驶;

采用模型调试,工程补丁和众包测评降低谬误性展示,破解体验痛点。

综合所有这一切,表明AI大模型在未来会给各类产业带来一场模式重塑。实质是由训练成本向应用成本双降,会有希望更快一些,使我们能够真正的拥抱AI这个大时代,包括它会更进一步地影响工业、医疗和其他各行业升级。

GPT自己也在主动的往外抱。2月,OpenAI推出ChatGPT的付费订阅版ChatGPT Plus,提供比免费版更快的服务和新功能优先试用权每月20美元。

3月上旬,正式又公布了API应用程序接口的开放政策,使第三方开发者能够通过API把ChatGPT整合到其应用和服务。按照每一千个Tokens/0.002美元收费,与之前GPT3相比,成本降低了90%。

IDC中国研究总监卢言霞对21世纪经济报道记者分析,“个人认为,降低定价才能提高该产品的用量,如此也能让算法模型快速迭代。用量起来反哺模型,该产品的准确度会越来越高。”

她进一步指出,一般来说,AI大模型目前主要有三条变线,卖算力,大模型的使用者自行进行培训和部署;卖模型和算力的高度融合,软硬一体的优化方案;硬件厂商提供平台和应用。模型是服务和公开的API。

“目前来看Open AI采用该两种模式面向的对象不同。Plus订阅可能倾向于面向个人,后续开放API则是面向企业级客户。由于面向的对象不一样,就谈不上对比哪种方式更容易变现。”她接着说。

伴随着核心而昂贵的算力基础设施,已开始主动提速降本、拥抱各行业的合作伙伴,我们离黄仁勋的畅想,好像离得更近。

AI大咖畅谈人工智能发展机遇和挑战:

数字化革命对许多产业都产生了颠覆性的影响

英伟达启动仪式之后,这一消息,为资本市场原本备受关注的人工智能概念又添一柄烈火。人工智能概念的炒作在近期持续升温。3月22日,A股科技巨头工业富联(601138.SH)即重获涨停板,市值一举突破三千亿大关,达到3189亿元人民币。

其实从今年2月份AI现象级产品ChatGPT骤然走红之后,与人工智能有关的话题热度就一路飙升。

一个与之有关的主题探讨于3月21日在上海虹桥国展洲际酒店举行。

这场由长三角商业创新研究院主办的“2023中国新经济年会”上,担任数字中国论坛秘书长、华为互联网业务前总裁朱波担任主持人,上海交通大学人工智能研究院常务副院长杨小康、云从科技高级副总裁杨桦、达观数据创始人陈运文、科大讯飞上海研究院院长李海鹰等业内人士,以“人工智能加速剧变所引发的经济新动能,安全新挑战”为主题,进行了探讨。

说到中国AI技术和国外ChatGPT这种热门产品之间的距离,在杨小康看来前景依然看好,特别是前十年判别式人工智能时代,中国有关公司的产品,在有关应用场景中都有相当不错的表现。从最初的“机器换人”到现在的“智能制造”,这是一个巨大的进步,也是人类社会发展的必然要求。不过自从ChatGPT问世以来,二者或反映出明显的距离。

“我们也试用过百度的文心一言,它能率先地把这件事推出来,尽管还有待改进的地方,但是我对百度走出这一步非常钦佩,必须走出来,然后快速迭代。”杨小康说。

陈运文从实际出发进行了评判,“目前主要的差距是在数据和算法上。国内算力大规模的集群相对较弱,高质量文字资料的数据还不如英文世界积累那么多和丰富。算法方面还是有一些细节需要摸索,但是一定都能解决。”

杨桦讲到中国应用端很强的优势。“知识结构有三层:一个是创造,二是集成,三是应用。现在在创造这一层面上还不行,发明和发现是不一样的,所以人类一直不会被替代。但是在集成上面,人工智能做得非常好,第三个所有的东西要到应用层面上才是OK的,所以中国的应用层面会蓬勃触发出很多的东西,这块在过往经验,中国也是比国外强的。”

并对人工智能前景进行了预测,陈运文分析,“有一个数据,工业革命以后,工厂里面的体力劳动自动化程度提升了70%,但是白领工作到今天经历上百年的发展,自动化程度只提升了5%。所以未来数字化的革命,是在白领的办公领域,一个人提升10倍的效率,这对很多的行业带来颠覆性的影响”。

这一颠覆性的影响能否给就业带来威胁?科大讯飞上海研究院院长李海鹰谈了自己的想法。

“人工智能是人的智能的儿子,你想一想家里面你的儿子超过你了,应该是高兴的事。自古以来只要发明了新的东西,传统的做法一定是搞不过它,但是它对人类的威胁几乎为零,因为它和人类是一脉相承的。”“人工智能时代,我们需要什么样的人才?我认为最重要的是能把技术应用到生活中去,让我们的日常生活更加智能化、人性化、便捷化。”李海鹰说。

值得一提的是,同日参加会议的陈运文创立的达而观信息科技(上海)有限公司,也正在积极探索(LLM)这一大语言模型的实践,并且开发了GPT“曹植”的国产版系统。返回搜狐,查看更多

责任编辑:



开普云股吧688228 688228开普云股票

688228开普云股吧,开普云 股吧,开普云股票代码,开普云招股说明书

原标题:开普云(688228)新增【ChatGPT】概念

根据市场公开信息整理,3月22日开普云(688228)新增【ChatGPT】概念。

新增概念原因:公司的数字人已经与OpenAI的GPT3-003接口完成对接,该接口是ChatGPT的前一个版本,待ChatGPT接口开放后即可快速完成集成,并结合开普云的内容安全能力形成更可靠的数字人对话服务。

该公司关联的其它概念板块还包括:国产软件、云计算数据中心、大数据、数字经济、信创、虚拟数字人、AIGC概念、智慧政务、华为云・鲲鹏。

开普云(688228)主营业务:为全国各级党政机关、大中型企业、媒体单位提供先进的数智驱动行业解决方案、产品和运营服务。

开普云2022三季报显示,公司主营收入2.0亿元,同比上升16.89%;归母净利润1354.31万元,同比上升11.95%;扣非净利润-1180.63万元,同比下降188.11%;其中2022年第三季度,公司单季度主营收入8120.95万元,同比下降3.11%;单季度归母净利润1837.06万元,同比上升134.18%;单季度扣非净利润-340.81万元,同比下降514.03%;负债率22.41%,投资收益489.61万元,财务费用-990.45万元,毛利率43.68%。

根据近五年财报数据,证券之星估值分析工具显示,开普云(688228)行业内竞争力的护城河较差,盈利能力良好,营收成长性良好。该股好公司指标2.5星,好价格指标2星,综合指标2星。(指标仅供参考,指标范围:0 ~ 5星,最高5星)

以上内容由证券之星根据公开信息整理,与本站立场无关。证券之星力求但不保证该信息(包括但不限于文字、视频、音频、数据及图表)全部或者部分内容的的准确性、完整性、有效性、及时性等,如存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。

〖 证星概念研究 〗

本文不构成投资建议,股市有风险,投资需谨慎。返回搜狐,查看更多

责任编辑: