庆云古诗词

庆云古诗词

人工智能ai行业发展趋势 人工智能时代企业如何应用ai技术

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

ai人工智能发展前景,ai人工智能发展方向,ai人工智能的趋势,人工智能产业趋势

人工智能作为第四次科技革命,已经进入2.0时代。人工智能概念于1956年被提出,AI产业的第一轮爆发源自2012年,2012年AlexNet模 型问世开启了CNN在图像识别的应用,2015年机器识别图像的准确率首次超过人(错误率低于4%),开启了计算机视觉技术在各行各业 的应用。但是,人工智能1.0时代面临着模型碎片化,AI泛化能力不足等问题。2017年Google Brain团队提出Transformer架构,奠定了 大模型领域的主流算法基础,从2018年开始大模型迅速流行,2018年谷歌团队的模型参数首次过亿,到2022年模型参数达到5400亿,模 型参数呈现指数级增长,“预训练+微调”的大模型有效解决了1.0时代AI泛化能力不足的问题。新一代AI技术有望开始全新一轮的技术 创新周期。

自18年起大模型快速流行,有望重新定义生产力。2018年以来,预训练语言模型 (PLM) 及其“预训练-微调”方法已成为自然语言处理 (NLP)任务的主流范式,该范式先利用大规模无标注数据通过自监督学习预训练语言大模型,得到基础模型,再利用下游任务的有标 注数据进行有监督学习微调模型参数,实现下游任务的适配。在AI的1.0时代:存在模型碎片化明显、AI泛化能力不足等问题。“预训 练+微调”大模型能显著降低AI工程化门槛,预训练大模型在海量数据的学习训练后具有良好的通用性和泛化性,细分场景的应用厂商 能够基于大模型通过零样本、小样本学习即可获得显著的效果,使得人工智能有望构建成统一的智能底座,AI+赋能各行各业。本轮的 生成式AI有望从简单的内容生成,逐步达到具有预测、决策、探索等更高的认知智能。

OpenAI当前已迭代五代模型,GPT-4开始布局多模态。OpenAI于2015年成立,微软于2019年开始与OpenAI建立战略合作伙伴关系,GPT共 发布五代模型GPT-1、GPT-2、GPT-3、ChatGPT以及GPT4。GPT-1于2018年6月发布,首次将transformer与无监督的预训练技术相结合。 2020年5月发布GPT-3,模型参数量为1750亿。2022年11月,OpenAI正式推出了对话交互式的ChatGPT。相比于GPT-3,ChatGPT引入了基 于人类反馈的强化学习(RLHF)技术以及奖励机制。2023年3月,OpenAI正式推出GPT-4,成为目前较先进的多模态大模型。GPT-4主要 在识别理解能力、创作写作能力、处理文本量以及自定义身份属性迭代方面取得进展。

百度于2023年3月正式推出大模型文心一言。文心一言主要由文心大模型提供支持,文心一言拥有有监督精调、RLHF、提示构建、知识增 强、检索增强和对话增强六大核心技术。其中前三项与ChatGPT的技术十分类似,知识增强包括知识内化和知识外用;检索增强指基于 百度搜索引擎,先对内容进行检索,再筛选出有用的部分整合输出结果;对话增强指记忆机制、上下文理解和对话规划等技术。

1.1、人工智能产业自2012年开始迎来蓬勃发展

2012年至今属于人工智能的蓬勃发展期。人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新 的技术科学。人工智能的发展历史大致可以被划分为5个阶段,2012年至今处于人工智能的蓬勃发展期,其分界点就是2012年前后IBM开发 的人工智能程序“沃森”参加了一档智力问答节目并战胜了两位人类冠军以及AlexNet在ImageNet竞赛中取得胜利。 以深度神经网络为代表的信息技术的发展,推动了人工智能领域的进步与拓展。2006年,Hinton等人利用单层的RBM自编码预训练使得深 层的神经网络训练得以实现;2012年,Hinton和Alex Krizhevsky设计的AlexNet神经网络模型在ImageNet竞赛中实现图像识别分类,成为 新一轮人工智能发展的起点。

人工智能1.0时代(2012年-2018年):人工智能概念于1956年被提出,AI产业的第一轮爆发源自2012年,2012年AlexNet模型问世开启 了CNN在图像识别的应用,2015年机器识别图像的准确率首次超过人(错误率低于4%),开启了计算机视觉技术在各行各业的应用,带 动了人工智能1.0时代的创新周期,AI+开始赋能各行各业,带动效率提升。但是,人工智能1.0时代面临着模型碎片化,AI泛化能力不 足等问题。 人工智能2.0时代(2017年-至今):2017年Google Brain团队提出Transformer架构,奠定了大模型领域的主流算法基础,从2018年开 始大模型迅速流行,2018年谷歌团队的模型参数首次过亿,到2022年模型参数达到5400亿,模型参数呈现指数级增长,“预训练+微调” 的大模型有效解决了1.0时代AI泛化能力不足的问题。新一代AI技术有望开始全新一轮的技术创新周期。

1.2、产业分类:AI产业链主要包括基础层、技术层、应用层三大层

人工智能产业链可分为基础层、技术层和应用层三大层面: 基础层:侧重基础支撑平台的搭建,包含传感器、AI芯片、数据服务和计算平台; 技术层:侧重核心技术的研发,主要包括算法模型、基础框架、通用技术; 应用层:注重产业应用发展主要包含行业解决方案服务、硬件产品和软件产品。

AI模型大致可以分为决策式AI和生成式AI两种。决策式AI指学习数据中的条件概率分布,根据已有数据进行分析、判断、预测,主要应用 模型有用于推荐系统和风控系统的辅助决策、用于自动驾驶和机器人的决策智能体。 生成式AI指学习数据中的联合概率分布,并非简单 分析已有数据而是学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成了全新的内容,也能解决判别问题。

中国生成式AI商业应用规模迎来快速增长,预计2025年破两千亿。根据中关村大数据产业联盟发布的《中国AI数字商业展望2021-2025》 报告披露,到2025年,中国生成式AI商业应用规模将达到2070亿元,未来五年的年均增速84%。根据Gartner《2021年预测:人工智能对人 类和社会的影响》给出的积极预测,到2023年,将有20%的内容被生成式AI所创建。至2025年,预计生成式AI产生的数据将占所有数据的 10%。

1.3、AI产业正在逐渐从传统分析型AI走向生成式AI

人工智能在经历前期技术积累和迭代后,逐渐突破传统分析型AI领域,迎来生成式AI的爆发期。从2012年至今,生成式AI急速发展,其 源头就是DNN算法的升级,实现了语音和图像识别等功能。 生成式AI市场前景广阔,赛道内诞生多家独角兽企业。据波士顿咨询预测,至2025年生成式人工智能的市场规模将至少达到600亿美元, 而其中大约30%的AI应用将来自广义的生成式AI技术。随着生成式AI模型的进一步完善,自主创作和内容生产的门槛将大大降低,市场 响应该领域的巨大需求,在2019-2022年间共有7家独角兽公司诞生,截至2023年2月,这七家的估值合计达到644亿美元,其中OpenAI借 助旗下产品ChatGPT爆火的东风,一家公司的估值便突破290亿美元。

AIGC具备三大前沿能力,未来应用空间广阔。AIGC发展火热,以chatgpt为代表的问答机器人,逐步走向大众视野。AIGC(AIGenerated Content)即人工智能生产内容,可用于代码生成、文本问答、图像生成等。AIGC是继专业生成内容(PGC)和用户生成内容 (UGC)之后,利用人工智能技术生成内容的新生产方式。AIGC技术演化出三大前沿技术能力:数字内容孪生、数字内容的智能编辑、 数字内容的智能创作。ChatGPT能理解并生成文字,属于AIGC技术应用中的文本生成模态应用模型。根据Gartner测算,当前AIGC占所有 生成数据小于1%,AIGC生成数据渗透率有广阔提升空间,预计该数字到2025年或上升至10%。

AIGC产业链上游主要提供AI技术及基础设施,包括数据供给方、数据分析及标注、创造者生态层、相关算法等。AIGC应用对数字基础设 施要求较高,随着ChatGPT掀起AIGC发展浪潮,数据基础设施有望加速升级。中游主要针对文字、图像、视频等垂直赛道,提供数据开 发及管理工具,包括内容设计、运营增效、数据梳理等服务。下游包括内容终端市场、内容服务及分发平台、各类数字素材以及智能设 备,AIGC内容检测等。

2.1、OpenAI发展历程

OpenAI的发展历程分为四个阶段: 阶段一:2015年OpenAI首席执行官阿尔特曼,与埃隆·马斯克等人宣布出资10亿美元,创立了非营利性研究机构OpenAI。 阶段二:2019年OpenAI的架构进行了调整,调整后变身为两家机构——营利性机构OpenAI LP和最初的非营利机构OpenAI,Inc。 阶段三:从2019年开始,微软与OpenAI建立了战略合作伙伴关系,不少于三次投资,共投入130亿美元,成为OpenAI最大的有限合伙人。 OpenAI LP从成立之初参与投资的VC,也成为有限合伙人。

阶段四:在OpenAI未来盈利后,逐步回报投资人:1、优先保证OpenAI的首批投资者收回初始资本;2、微软投资完成、OpenAI LP首批 投资人收回初始投资后,微软有权获得OpenAI LP 75%利润;3、微软收回130亿美元投资、从OpenAI LP获得920亿美元利润后,它分享 利润的比例从75%降到49%;4、OpenAI LP产生的利润达到1500亿美元后,微软和其他风险投资者的股份将无偿转让给OpenAI LP的普通 合伙人——非营利机构OpenAI, Inc。

自2013年起人工智能迎来发展高潮。2006年Hinton提出“深度学习”神经网络使得人工智能性能获得突破性进展,在2013年深度学习宣 发在语音和视觉识别上取得成功,识别率分别超过99%和95%,人工智能进入感知智能时代。在此期间全球人工智能市场保持高速增长, 截至2015年全球AI市场规模达到74.5亿美元,而且愈发受到投资机构青睐,投资额从2012年的0.62亿元提升至2015年的142.3亿美元, 增长幅度达到2195.16%。2015年OpenAI作为一家非营利性人工智能研究公司创立。基于人工智能高速发展的背景,Openai由Elon Musk,Sam Altman(美国创业孵化器总裁)及Pieter Abbeel(PayPal联合创始人)等人创建,在创立之初由Elon Musk和Sam Altman担任其联合主席,由Pieter Abbeel等人担任顾问。

2016年4月,OpenAI发布了第一个项目——OpenAI Gym Beta。OpenAI Gym是由OpenAI开发的一个开源平台,旨在在各种强化学习问题中 加速算法的开发和比较,该工具也是OpenAI第一个开放的成果。 Gym的核心组件是环境(En【【微信】】)和智能体(Agent)。环境是一个可观察到的系统,它定义了智能体如何与外部世界交互;智能 体则是一个能够感知到和影响环境的程序,是训练和优化的对象。 Gym提供了许多强化学习问题的标准化环境。例如经典控制问题(Classic control),Atari游戏,甚至是Roboschool等物理模拟环境。

2017年7月,OpenAI公布最新强化学习算法PPO(Proximal Policy Optimization),好于同期最强的算法模型,成为openai默认的强化 学习算法。PPO包含三方面的技术进步: 1.代理策略和价值函数的优化,在 PPO算法中,同时优化代理策略和价值函数( 【【微信】】),通过在最大化奖励的同时最大化代理策略和价值函数的梯度,同时对这两者进行优化;2.剪辑代理策略更新是PPO算法的 核心部分,该方法通过使用约束优化来保证新的策略不会太远离旧的策略,减轻了过渡调整代理策略的问题,并提高总体稳定性;3.优 化函数的选择,在PPO算法中,需要选择合适的优化函数来最大化代理策略和价值函数的梯度,常用的优化函数包括Adam、SGD和 RMSProp等。

2018年6月, OpenAI公布了第一个将transformer与无监督的预训练技术相结合的GPT模型,其取得的效果要好于当前的已知算法。该模 型被称为GPT-1,并由一个具有10亿个参数的单层transformer组成。这一模型的训练使用了大规模的无监督语料库,使它能够生成各种 自然语言处理任务的有力表现。同月OpenAI宣布他们的OpenAI Five已经开始在Dota2游戏中击败业余人类团队,OpenAIFive使用了256 个【【微信】】和128000个CPU核,通过每天玩180年时长的游戏来训练模型。在同年8月份的专业比赛中,OpenAIFive输掉了2场与顶级选 手的比赛,但是比赛的前25-30分钟内,OpenAI Five的模型的有着十分良好的表现。OpenAI Five继续发展并在2019年4月15日宣布打败 了当时的Dota2世界冠军。

2019年2月,OpenAI在博客《Better Language Models and Their Implications》中官宣GPT-2模型。GPT-2模型拥有15亿参数,基于 800万网页数据训练,该模型就是GPT的规模化结果,在10倍以上的数据以10倍以上的参数训练。OpenAI在2月份GPT-2发布的时候仅仅公 开了他们的1.24亿版本的预训练结果,其后的5月份发布了3.55亿参数版本的预训练结果,并在半年后的8月份发布了一个7.74亿参数版 本的GPT-2预训练结果。2019年11月5日,15亿参数的完整版本的GPT-2预训练结果发布。

2019年3月,OpenAI将生成模型开始拓展至其他领域。同年3月4日,OpenAI发布了一个用于强化学习代理的大规模多代理游戏环境: Neural MMO。该平台支持在一个持久的、开放的任务中的存在大量的、可变的agent。4月25日,OpenAI继续公布最新的研究成果: MuseNet,这是一个深度神经网络,可以用10种不同的乐器生成4分钟的音乐作品,并且可以结合多种音乐风格。

2.2、GPT迭代过程:目前GPT已迭代了五代模型

GPT的发展可大致分为四个阶段:GPT-1、GPT-2、GPT-3、ChatGPT以及GPT4。 GPT-1:2018年6月, OpenAI公布了第一个将transformer与无监督的预训练技术相结合的GPT模型。GPT-1模型架构基于Transformer模 型,通过学习大量未标记的文本数据,可以在大规模任务上进行预测。模型参数量为1.17亿。 GPT-2: 2019年 2月, OpenAI在博客《Better Language Models and Their Implications》中官宣 GPT-2模型。GPT-2是一种基于 Transformer架构的自然语言处理模型,使用了无监督预训练的技术,允许GPT-2从未标注的文本数据中学习语言模型。模型参数量为15 亿。

GPT-3:2020年5月,OpenAI的研究人员提交论文《Language Models are Few-Shot Learners》宣布了GPT-3的诞生。GPT-3具有少样本 及零样本学习的能力,即可以在没有接受特定任务或领域训练的情况下产生有意义的输出。模型参数量为1750亿。 ChatGPT:2022年11月,OpenAI正式推出了对话交互式的ChatGPT。相比于GPT-3,ChatGPT引入了基于人类反馈的强化学习(RLHF)技术 以及奖励机制,提高模型准确度。 GPT-4:2023年3月,OpenAI正式推出GPT-4,成为目前较先进的多模态大模型。GPT-4主要在识别理解能力、创作写作能力、处理文本量 以及自定义身份属性迭代方面取得进展。

GPT-1采用了多层Transformer架构,整体架构为:输入层 -> n个Transformer块 -> 输出层。输入层采用的是基于字节对编码(BPE, Byte Pair Encoding)的方式,将原始文本编码成固定长度的向量作为模型的输入。接下来,模型将这些向量输入到n个Transformer块 中进行处理,每个Transformer块又包含了若干个子层,包括多头自注意力子层和全连接前馈网络子层。这些子层形成了Transformer块 的主体结构,每个子层处理不同的输入信息,其中多头自注意力子层用于计算每个词在上下文中的重要性,全连接前馈网络子层用于提 取特征并生成新的表示。最后,模型将最后一层Transformer块的输出向量输入到输出层中,生成对下一个单词的预测。整个过程被称 为生成式预训练(Generati【【微信】】)。

GPT-2采用更大的训练集,并尝试无监督训练。GPT-2为了解决GPT-1泛化能力弱的问题,开始采用zero-shot learning(零次学习)。 GPT-2的训练集为在Reddit上爬取的外链,构建了WebText数据集,包含了这4500万个链接的文字子集,移除了所有的Wikipedia文档 (这部分是很多下游任务的数据源,为了避免数据集重叠而影响评估)。在架构上,GPT-2基本保持了与第一代相同的架构,但GPT-2将 Transformer堆叠的层数增加到48层,隐层的维度为1600,参数量达到了15亿。

GPT-2取得了更为优异的实验结果。在8个语言模型任务中,仅仅通过zero-shot学习,GPT-2就有7个超过了state-of-the-art的方法; 在“【【微信】】‘s Book Test”数据集上的命名实体识别任务中,GPT-2超过了state-of-the-art的方法约7%;“【【微信】】”是测试模型 捕捉长期依赖的能力的数据集,GPT-2将困惑度从99.8降到了8.6;在阅读理解数据中,GPT-2超过了4个baseline模型中的三个;在法译 英任务中,GPT-2在zero-shot学习的基础上,超过了大多数的无监督方法,但是比有监督的state-of-the-art模型要差。

GPT-4可以接受文本和图像形式的输入,新能力与纯文本设置并行,允许用户指定任何视觉或语言任务。具体来说,GPT-4在人类给定由 散布的文本和图像组成的输入的情况下生成相应的文本输出(自然语言、代码等)。在一系列领域——包括带有文本和照片的文档、图 表或屏幕截图上,GPT-4展示了与纯文本输入类似的功能。此外,它还可以通过为纯文本语言模型开发的测试时间技术得到增强,包括 少样本和思维链。实际应用方面,OpenAI官网给出了7个视觉输入例子:1、描述多张图片内容,发现不合常理之处;2、根据图表,推 理作答;3、看图考试;4、简练指出图片的违和之处;5、阅读论文,总结摘要与解释图表;6、解读人类梗图;7、理解漫画含义。

GPT-4在真实性和有效性方面取得了突破级成果。GPT-4基于对抗性测试程序和ChatGPT得到的经验教训,对模型进行训练运行,当有问 题出现时,基础模型可以以多种方式响应,为了得到用户想要的答案,再使用RLHF对结果进行微调。

2.3、海外玩家之谷歌:谷歌大模型早期发展

2014年1月26日Google收购Deepmind。该事件成为谷歌人工智能新一阶段起点,之后由Deepmind开发的Alphago于2016年战胜人类世界围 棋冠军。 2017年谷歌发布开源的神经网络架构Transformer模型。该模型首次在“【【微信】】d”一文中提出,在论文中该模型主 要是被用于克服机器翻译任务中传统网络训练时间过长,难以较好实现并行计算的问题,后来,由于该方法在语序特征的提取效果由于 传统的RNN、LSTM而被逐渐应用至各个领域。 2018年10月,谷歌发布Bert。该大模型基于Transformer架构,在斯坦福大学机器阅读理解水平测试SQuAD1.1中,Bert在全部两个衡量 指标上,全面超越人类表现。同年OpenAI发布GPT-1,同样基于Transformer架构。

2021年5月18日谷歌在谷歌I/O大会发布LaMDA大模型。LaMDA的全称LanguageModel for Dialogue Applications,是一种能力强大的语 言模型,适用于对话应用程序。 LaMDA经过两阶段训练:预训练和微调,在预训练阶段,谷歌首先从公共对话数据和其他公共网页文档 中收集并创建了一个具有1.56T单词的数据集;在微调阶段,谷歌训练 LaMDA,执行混合生成任务以生成对给定上下文的自然语言响应, 执行关于响应是否安全和高质量的分类任务,最终生成一个两种任务都能做的多任务模型。 2021年5月18日谷歌在谷歌I/O大会发布多任务统一模型MUM。MUM不仅可以理解语言,而且可以生成语言;MUM 同时用 75 种不同的语言 进行了多项任务的训练,使其比以前的模型更全面地理解信息;MUM是多模态的,能够理解文本和图像中的信息。

2023年2月6日,谷歌宣布发布Bard新对话式人工智能技术应用。Bard由谷歌的大型语言模型LaMDA,即对话应用程序语言模型提供支持。 2023年3月21日,谷歌正式宣布开放Bard的访问权限。Bard采用了先进的深度学习算法,具有包括翻译、摘要等在内的一系列能力,并 由大量文本提供支持。与ChatGPT相比,从功能来看,ChatGPT通晓多种语言,而Bard暂时只能进行英文对话;从编程能力来看, ChatGPT能生成大段可用的代码,但Bard的这一功能暂不可用;在生成内容的形式方面,ChatGPT一次只能作出一个回应,而Bard一次性 创建几个不同的版本,供用户从中择优选用。

3.1、百度:正式发布文心一言

2023年3月20日,百度正式推出百度版ChatGPT——文心一言。其发布时间线:2月7日官宣;13日确认将在3月亮相;截至15日有超百家企业 接入;17日在2023 AI+工业互联网高峰论坛上宣布,将通过百度智能云对外提供服务,率先在内容和信息相关的行业和场景落地;22日,李 彦宏在财报信中表示,计划将多项主流业务与文心一言整合;28日,文心一言新闻发布会定档。 文心一言目前主要展现出五大功能,并带来三大产业机会。其功能主要包括:(1)文学创作、(2)商业文案创作、(3)数理逻辑推算、 (4)中文理解、(5)多模态生成。发布会上李彦宏提出AI时代三大产业机会包括:新兴云计算——MaaS模型即服务;行业模型精调——工 业、金融、交通、能源、媒体等;应用开发——文字、图像、音视频生成、数字人、3D生成等。

文心一言主要由文心大模型提供支持。百度文心NLP大模型主要经历了三条主线的发展:第一、文心ERNIE 3.0以及文心·ERNIE 3.0 Titan 模型,在SuperGLUE和GLUE都超过了人类排名第一的水平;第二、文心ERNIE在跨模态、跨语言以及长文档、图模型等方面取得发展,在多个 榜单尤其是视觉语言相关榜单获得第一;第三、生成式对话大模型文心PLATO推动了对话的连续性。 文心一言拥有有监督精调、RLHF、提示构建、知识增强、检索增强和对话增强六大核心技术。其中前三项与ChatGPT的技术十分类似,知识 增强包括知识内化(将知识“渗透”进模型参数中)和知识外用(指的是模型可以直接使用外部的知识);检索增强指基于百度搜索引擎, 先对内容进行检索,再筛选出有用的部分整合输出结果;对话增强指记忆机制、上下文理解和对话规划等技术。

3.2、国内玩家之阿里:通义大模型打造AI统一底座

2022年9月2日,阿里达摩院发布通义大模型系列。该模型打造了国内首个AI统一底座,并构建了通用与专业模型协同的层次化人工智能体系, 首次实现模态表示、任务表示、模型结构的统一。通过这种统一学习范式,通义统一底座中的单一M6-OFA模型,在不引入任何新增结构的情况 下,可同时处理图像描述、视觉定位、文生图、视觉蕴含、文档摘要等10余项单模态和跨模态任务,并达到国际领先水平。 2023年3月,阿里达摩院已在AI模型社区“魔搭”【【微信】】上线了“文本生成视频大模型”。目前文本生成视频大模型,由文本特征提取、文 本特征到视频隐空间扩散模型、视频隐空间到视频视觉空间这3个子网络组成,整体模型参数约17亿,目前仅支持英文输入。扩散模型采用 Unet3D 结构,通过从纯高斯噪声视频中,迭代去噪的过程,实现视频生成的功能。

3.3、国内玩家之腾讯:依托太极平台,腾讯发布混元大模型

2022年4月,腾讯首次对外披露混元大模型,完整覆盖NLP大模型、CV大模型、多模态大模型及众多领域任务。该模型在广告内容理解、行 业特征挖掘、


2023年3月24日老虎的运势


3月23日,针对网传贵人鸟预制菜产品已经有成品,对此,贵人鸟证券部工作人员回应记者:公司预制菜的产品是子公司金鹤(齐齐哈尔)预制菜产业园在做,今年3月份刚成立,还没有那么快。所以公司没有接到这方面的通知。(中国证券报)

百度回应文心一言文生图套壳质疑
3月23日消息,百度官博发文称,注意到对文心一言文生图功能的相关反馈。回应说明如下:1、文心一言完全是百度自研的大语言模型,文生图能力来自文心跨模态大模型ERNIE-ViLG。2、在大模型训练中,我们使用的是互联网公开数据,符合行业惯例。大家也会从接下来文生图能力的快速调优迭代,看到百度的自研实力。文心一言正在大家的使用过程中不断学习和成长,请大家给自研技术和产品一点信心和时间,不传谣信谣,也希望文心一言能够给大家带来更多欢乐。
高德地图回应与口碑合并:有助于提供更好的到目的地服务
3月23日消息,针对高德与口碑业务合并,3月22日,高德地图回应表示,新团队的加入,有助于我们为用户和生态合作伙伴提供更好的到目的地服务。据悉,高德地图3月22日召开内部会议,宣布和阿里本地生活旗下的到店业务口碑正式合并。未来,阿里旗下所有的本地生活到店业务将统一整合在高德地图的入口中。(贝壳财经)
克莉丝汀创始人回应关闭所有门店:很难再开了,希望早日破产清算
3月23日消息,近日,“烘焙第一股”克莉丝汀发布公告,称集团现金流紧绌并且遭遇经营困难,在支付店铺租金、供应商货款、员工薪酬方面出现延误,截至2023年2月28日,拖欠金额约为5700万元。在公告中,克莉丝汀表示,自2022年12月起已暂时关闭旗下所有零售门店。目前正积极谋求业务多元化,计划通过合适的融资方式(如出售资产及股本融资)解决流动资金问题,并于2023年上半年恢复营业。不过,对于公告中“2023年上半年恢复营业”的说法,克莉丝汀创始人罗田安表示:“很难再开了,希望早日破产清算。”(每日经济新闻)
李彦宏称中国不会再出OpenAI,没有必要再重新发明一遍轮子
3月23日消息,3月16日,百度在北京总部召开新闻发布会,正式发布文心一言。3月22日,李彦宏在接受36氪独家采访时,谈及中国会不会再出一个OpenAI,李彦宏表示:“基本不会了。OpenAI诞生是因为美国大厂都不看好这个方向,但现在中国的大厂都看好AI大模型,都在做这个方向。创业公司重新做一个ChatGPT其实没有多大意义,基于大语言模型开发应用机会很大,没有必要再重新发明一遍轮子。”
微软必应搜索下载量翻了8倍,谷歌下跌2%
3月23日消息,根据第三方数据分析机构Similarweb的报告,微软旗下的必应搜索在植入OpenAI公司的聊天机器人ChatGPT后,已经改变了在用户中几乎没有存在感的尴尬,在网页访问量增速等指标上,必应搜索对于谷歌搜索的竞争力明显上升。截止3月20日的统计数据显示,自从微软公司必应搜索在2月7日整合OpenAI的技术以来,必应的网页访问量已经上涨了15.8%,而在同一时间段内,谷歌搜索的网页访问量,却下跌了大约1%。根据移动互联网研究公司Data.ai的统计,在整合人工智能技术之后,微软必应搜索的应用下载量,在全球范围内增长了8倍。而在同一时间内,谷歌搜索的应用下载量下跌了2%。
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。

上一篇36氪晚报丨OpenAI公司在中国申请GPT4商标;美团:2022年新业务分部收入同比增长39.3%至592亿元;腾讯游戏亮相2023游戏开发者大会

下一篇?总市值4天涨超25亿元,吉宏股份为何频频被疑“蹭热点”?