庆云古诗词

庆云古诗词

如何拥抱chatgpt带来的ai浪潮 从chatgpt看ai算力与未来

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

如何拥抱女人,拥抱方法,拥抱的技巧,拥抱的方法

  编者按:1956年,人工智能(AI,Artificial Intelligence)的概念首次提出,迄今已逾六十载。60年来,AI历经了从爆发到寒冬、再到野蛮生长的历程,伴随着人机交互、机器学习等技术的提升,AI成为了技术时代的新趋势。

  2022年,AI行业再度迎来新的节点,人工智能生成内容(AIGC,AI Generated Content)后来居上,以超出人们预期的速度成为科技革命历史上的重大事件。无论是“AI画师”DALL-E2,还是“万能陪聊”对话机器人ChatGPT,生成式AI正在迅速催生全新的科技革命系统、格局与生态。

  时针转至2023年,由AIGC引发的热度不减反增,而全新的智能创作时代在带来深刻生产力变革的同时,也将进而改变人类的思想演进模式。就此,21世纪经济报道数字经济课题组策划了“逐浪AIGC”系列报道,多维解读AIGC带来的技术可能和商业图景。

  21世纪经济报道记者白杨北京报道

  过去几年,人工智能的发展陷入了瓶颈,在算力、算法、数据等方面都在不断提升的背景下,AI应用却显得不温不火。在ChatGPT出现前,有人悲观地认为,AI领域已经形成巨大泡沫,但现在,AI又呈现出了全新的价值,行业也开始重现百家争鸣的热闹景象。

  以ChatGPT为导火索,此前一直相对低调且小众的AI大模型成为了公众话题,近日,OpenAI的GPT-4、百度的文心一言等大模型的相继发布,更是将AI产业推入了新一轮军备竞赛。

  那么,科技巨头们到底在竞争什么,是大模型吗?肯定不是,因为单纯比拼模型参数量的大小没有太大意义,并且这是一个无底洞。而创新工场董事长兼CEO李开复近日抛出的“AI 2.0”概念,或许能够回答这一问题。

  李开复说,AI 2.0是绝对不能错过的一次革命,“网上都在谈一些很酷的国外产品,但那些产品只是冰山一角,以后的机会将要更加巨大,并且它会是一个平台级别的趋势”。

  什么是AI 2.0?

  如果把过去的AI看作是1.0阶段,可以总结出它的落地需要五大必备条件,分别是海量数据;精准、自动标注数据;单一清晰领域;大规模计算能力;顶尖AI科学家。

  事实上,得益于AI 1.0阶段的发展,人工智能在很多领域都已经超越了人类,比如AlphaGo曾打败人类。但是,AI 1.0的发展也开始遇到瓶颈。

  比如对AI训练来说,数据肯定是越多越好,但这也意味着更高的成本;另外AI技术的应用,都是单一领域数据集,所以每次都要重新收集、清洗、标注一套数据,然后训练一套模型,这导致每个领域和应用的优化都是割裂的。而这,也是很多公司虽然具备单场景的解决能力,却无法规模化复制的核心原因。

  更重要的是,在AI 1.0阶段,人们感受到的人工智能并非真正的智能,它还欠缺抽象概念、分析推理、创造等能力。

  在李开复看来,AI 2.0最大的不同,就是克服了AI 1.0单领域、多模型的限制。“通过自监督学习,AI可以将全世界的数据拿来自己教自己,不再需要人工标注,而且最后形成的基础模型,也是覆盖各个领域”。

  比如GPT,就是这样一个基础模型,所以它能让ChatGPT表现出无所不知。“现在的局限性在于存储性能,未来2-3年,数据只要能储存起来,都可以放到模型中去训练,届时也一定能做出更伟大的基础模型”,李开复说。

  另外,李开复认为AI 2.0已经具备了平台能力。“深度学习是非常伟大的AI技术,但它不是一个平台。平台需要能大大降低开发应用的成本,如果做不到这一点,那就只能是一个技术。就像电,是伟大的发明,但如果没有电网,其他电子设备也无法用上电,所以电网才是平台”。

  李开复表示,“如果把AI 1.0比作是电,那AI 2.0就是电网。AI 2.0时代的来临,将带来巨大的平台式机会,这个机会将比移动互联网还大十倍”。

  不能盲目求“大”

  大模型,是AI 2.0时代的产物。澜舟科技创始人兼CEO周明在接受21世纪经济报道采访时提到了AI能力的涌现现象。周明说,随着AI模型达到一定程度,往往会让已有的能力产生跃迁,并且会迸发出一些从未见过的能力,所以一定要关注AI的涌现能力。

  其举例称,“我们做小模型的时候,多轮对话就是出不来,但在模型增长了10倍之后,多轮对话的能力自然就出现了,这就是一种涌现。所以如果模型再大一点,有些没有设计的功能也会自己出现”。

  不过,AI的涌现仍是未解的现象,也具有很强的随机性,不同的人可能在不同的阶段都有模型的涌现,或者没有涌现。但目前来看,都是在模型规模变大之后才出现的,所以周明认为,未来需要尽量把模型做大。

  但是针对大模型,上文已经提到,参数量就是个无底洞,随着参数量级的提升,它的成本也越来越高,这也注定大模型不是每个公司都能做的,目前,只有少数科技巨头才具备实力打造更大规模的大模型。

  另外在AI 2.0时代,还有很多待解的难题。李开复提到一点,即AI会犯错,而且它还不知道怎么能不犯错。“AI 无法保存全世界的数据,只能通过压缩形成抽象的概念,因此会出现‘一本正经地胡说八道’的现象。更重要的是,AI 目前还无法分辨真伪和辨别是非,如果被恶意利用将会带来无法衡量的负面后果”。

  面对大模型这场无底洞的全球军备竞赛,周明认为,中国公司还是要审时度势,第一,要拥抱大模型;第二,要在涌现出现的前提下,把AI模型做的更好、更精致;第三则是要注重落地,不要总想着把边边角角的智能都体现出来。

  对于AI的产业落地,腾讯云副总裁、腾讯云智能平台负责人李学朝在接受21世纪经济报道采访时指出,通过“预训练大模型+下游任务微调”的模式,一定会让AI应用变得更加通用化,在此基础上,原有的AI应用场景会做的更深,同时,AI也会渗透到更多场景当中去。

  不过李学朝也指出,做AI应用是以解决问题为优先的,现在很多场景,用原来的AI模型能解决问题,就没必要去追赶热度,毕竟采用大模型对客户来说也会带来额外的成本。但是对于一些场景,比如智能客服,借助大模型能带来直接的效果提升的,则可以在权衡好性价比的情况下,去进行尝试。

  掘金新万亿美元市场

  对于AI 2.0时代,李开复认为,AI的自监督学习,依靠的是生成式AI(Generative AI),而这,也将是AI 2.0时代的第一个现象级应用。

  李开复表示,目前AI 2.0的技术水平,对内容领域的风险是最小的,所以第一批应用也会在这个领域诞生。“AI 2.0对内容创造带来的颠覆将是巨大的,它将产生完全不同的工具,使用者、用户体验以及商业模式都会变得不一样”。

  在其看来,AI的应用将从“辅助”人到逐步“替代”人工,这将大致经历三个阶段:

  第一个阶段是人类与AI协作。通过对AI进行持续人工干预,筛选和纠正 AI 创作的内容,避免谬误或灾难发生。同时,AI 2.0可以做到生成内容初稿、开拓想法,并可应用于生产力提升、写作、平面设计、娱乐等领域。

  第二阶段是局部自动化。这个阶段,AI仍会出错,但对于容错度高的应用已经可以接受,比如可以应用到广告、电子商务、搜索引擎、游戏制作等领域。

  第三阶段则是全自动化。AI将变得完全自动化并可在任何地方使用,比如在一些不容出错的领域实现突破,让AI医生、AI教师成为可能。

  李开复认为,在AI 2.0时代,第一个阶段和第二个阶段都将得到实现,而这俩加起来会是一个万亿美元级的市场。至于第三阶段,让AI不再犯错,那将是更未来的3.0时代。

  “经过AI技术的发展,AI 2.0将会成为平台,每个写代码的人、写App的人都要用上AI,就像每个使用移动互联网的人都要用移动网络一样,当AI 2.0平台够大的时候,这个平台可以支撑各种应用”,李开复说。

  对于未来,李开复也给出了他的预判。其认为,未来3-5年,AI 2.0将实现大部分人机控制论的初始梦想,包括学习、认知、适应、生产、沟通和效率。同时,我们也将看到多模态、巨型数据集的飞速发展,AI能够更好地模拟人类的认知智能。

  此外,李开复认为会有更多革命性产品出现,也会有少数AI 2.0平台公司浮出水面,并加速新一代AI 2.0应用的研发和商业化。

  但是,对于外界关心的另一个核心问题,李开复给出的依然是否定答案。他说,AI 2.0 不会是通用人工智能(AGI),人类具有诸如创造力、策略思考、跨领域常识、自我意识、同理心和爱等等与生俱来的关键能力,这是AI 2.0也无法全盘复制的。

(文章来源:21世纪经济报道)



比较实用的免费app 良心推荐三个免费app

比较实用的免费英语软件,好用的免费,免费实用的软件,免费好用的

原标题:这个免费App很无聊,但我真的看跪了

如果大家之前有看小雷写的“ChatGPT”文章,应该会对这个新鲜前沿的自然语言模型,有个大概了解。

前几天,小雷也借着GPT-4发布的热度,和大伙盘点了,那些目前已经接入ChatGPT AI且成功落地运行的应用。

和很多人预料的一样,随着ChatGPT接口的开放,很多公司得以调用其能力,让自家产品如虎添翼。

比如有人开发【视频总结】网站,在你没空看长视频时,帮你在几秒内总结出视频核心主题。

图源:ChatYoutube

还有人用万能的ChatGPT API,做了个【和文档聊天】网站。

把看不懂,或者不想全部看完的PDF文档扔进去,它能给咱们提取、定位和总结信息。

而且整个过程是“你问它答”,像是一位全知全能的智能助理,有求必应。

图源:小雷哔哔

但怎么说呢,现在ChatGPT被应用的大方向,我总感觉不太对劲。

无论是科技巨头,还是身边的普通人,都会不自觉把它和生产力的提升挂钩。

事实也是如此,很多调用ChatGPT API的产品,本质上还是往生产力和效率上内卷。

图源:小雷哔哔

以至于,小雷身边一些在互联网公司做文案策划的朋友,开始担心本职要被AI所替代。

这其实不是坏事儿,用得好的话,确实能提高工作效率,实现提前摸鱼。

今天文章的提纲,就有ChatGPT的功劳

但小雷认为,科技的发展,不仅仅是为了更好地工作。

也许在人文关怀和生活上,ChatGPT也能为咱们做点什么...

恰好我最近看到,有一家专注于做盲人公益App的公司,就把自家App和GPT-4技术相结合,推出了chatgpt功能。

不夸张地说,这功能犹如盲人的另一双眼,能帮他们“看清”世界。

图源:OpenAI。

没错,AI现在能帮盲人们识别生活中各种物体了。

有网友看到这个新功能后,都忍不住发出感叹:这才是ChatGPT的正确打开方式。

AI来当我的眼睛

对于盲人朋友们来说,生活中最大的困难莫过于看不见眼前的事物。

刷牙洗漱、煮饭洗碗、超市购物...

这些咱们眼中,随随便便就能干成的事儿,盲人可能要花大半天熟悉环境,才能不出差错地完成。

如果这时候,能有另一双眼睛,来帮助盲人朋友们观察世界和提供建议,生活肯定会方便得多。

Be My Eyes这款App推出的初衷,正是如此。

在很长一段时间里,这款App都保持着相当单调,但又实用的运营策略。

那就是,让网友们成为志愿者,通过视频通话的方式,来帮助有需要的盲人。

图源:Be My Eyes

由于App本身是公益性质的,加上主要使用人群是盲人,所以软件界面设计做得极其简洁。

点开Be My Eyes,映入眼帘的只有两个按钮。

一个是“我需要视觉帮助”,另一个是“我想要成为志愿者”。

图源:Be My Eyes

只要大伙有善心和耐心,随时都可以成为志愿者,在盲人的视频通话请求中,帮助他们完成某些任务。

比如盲人在过马路时,不清楚道路状况,这时候就能通过Be My Eyes,找到有空的志愿者帮忙看路。

图源:Be My Eyes

比较让人暖心的是啊,目前这App已经有六百多万名志愿者。

理论上,能覆盖里面接近48万盲人的需求。

图源:Be My Eyes

而且小雷看到,绝大多数志愿者都很乐意去帮助盲人。

把自己的眼睛分享给有需要的盲人,自己也能获得快乐和满足。

图源:推特

但大伙都懂的,即使志愿者再多,他们也不是24小时都能在线。

毕竟志愿者们不是工作人员,也得在现实生活中,和各种琐事对线,被工作占据时间。

盲人朋友很难像找人工客服那样,随时都能联系上对方。

而且从盲人的角度出发,他们肯定也不想啥事都麻烦志愿者。

所以目前的情况是,Be My Eyes虽然能很大程度上,帮助盲人辨别环境事物。

但却无法做到无时无刻,有求必应。

图源:Be My Eyes

本来,这个问题是个无解题。

但在GPT-4模型出来后,Be My Eyes总算找到了新的方法。

相比GPT-3.5更先进,GPT-4能处理更复杂的语言任务,这都是新模型的基本操作...

而它最狠的一项特性,莫过于“多模态输入”,说人话就是能看懂图片了。

比如发送下面这张图片给AI模型,问她有啥好笑的地方,它真的能理解图片,并根据问题来回答我们。

图源:【【网址】】

GPT-4这个特性,让Be My Eyes背后的公司大受震撼。

“要是把这模型集成到咱们的App上,不就能做到24小时为盲人识别环境物体了吗?”

说干就干啊,最近Be My Eyes就把GPT-4模型塞进了App里。

这样一来,盲人用户随时都可以发送图片给App里的“虚拟志愿者”,让它识别照片里有什么物品。

图源:Be My Eyes

当然啦,简单的识物功能,现在很多App都能做到。

而GPT-4加持的“虚拟志愿者”,则有着更强的理解和对话能力。

比如在识别物体上,它能识别出用户发送的图片里,有哪些衣服。

甚至连衣服的材料和颜色能描述出来,最后还不忘给用户提供建议。

如果AI没能提供满意的答案,用户还能点击底部的【寻求真人志愿者】帮助,App会立刻帮盲人联系其他志愿者。

图源:Be My Eyes

用过ChatGPT的小伙伴们都知道,提供建议只是它最基础的功能。

但把这项特性结合到图片识别中,就显得很牛X了...

比如,把一棵树拍下来发给AI,它不仅识别正确,还会问用户:“你想近距离看还是换个角度看?”

在GPT-4模型的加持下,“虚拟志愿者”还能当图片翻译来用。

有一位盲人去超市购物,拿起一瓶中国制造的陈年花雕酒,接着拍照发给虚拟志愿者。

等待几秒,AI就帮用户翻译出图片信息。

这还不是最离谱的...它甚至把这瓶酒的正确使用姿势都写了出来。

怎么用这瓶酒来做菜,具体的做菜步骤,统统给用户安排上。

不过在日常生活中,盲人的出行和导航同样是个大难题。

主流的百度地图和高德地图,只能给咱们提供一个大的路线框架,要是进入到室内,地图App就无能为力了。

而接入GPT-4的Be My Eyes,如今能做到很精确的室内路线导航。

举个例子,盲人去健身房健身,想找到跑步机在哪个位置。

只需把图片拍下来,发给“虚拟志愿者”,他会给用户解释跑步机的具体摆放位置。

在坐地铁这一出行场景中,“虚拟志愿者”也能通过用户拍下来的地铁路线,提供详细的途径站点。

等以后App完善并大面积铺开,盲人出行将会方便得多,很多事儿拍个照就能解决,无需走两步问一人。

更重要的是,这个功能对所有使用App的盲人免费开放,而API的接口费用,则由公司自行承担...

最后

小雷仍记得ChatGPT刚被推出时,满世界都在为此欢呼,直呼这是真正能改变世界的AI。

但是怎么改变呢?它又能带来什么?似乎很多企业和开发者都没想得太深入。

“这玩意儿知识量爆炸,那就用来开发个学外语的工具呗”。

“它回复速度那么快,说话又很像人类,拿来当智能客服多省钱”。

“还有做表格、总结论文生成摘要、写文案...”

大多数人都把ChatGPT当做生产力工具来使用,这也无可厚非。

但回过头一看,居然有公司把GPT-4的特性,应用在了辅助盲人识别环境的场景上,这何尝不是科技造福人类的一大表现呢?

小雷瞅见,在Be My Eyes官宣该新功能的评论区下,聚集了一大批夸夸党。

有人说,这是他见过最强的ChatGPT应用之一。

图源:推特

还有人表示,这才是ChatGPT最正确的使用姿势。

图源:推特

而小雷则有个不成熟的想法,如果能把“虚拟志愿者”的功能移植到智能眼镜上,说不定体验会更加炸裂。

假如以后GPT-100技术更先进了,能实时识别每一帧的画面并描述出来。

接着让盲人带上具有GPT-100特性的智能眼镜,再配合蓝牙耳机,把AI看到的画面,用语言转述给盲人。

或许,这才是盲人真正的“第二双眼睛”。

当然啦,实现实时画面识别,是需要超高算力支撑的,目前的ChatGPT也还没做到这个程度。

但总的来说,科技的发展,确实让咱们的生活变得更美好了,希望以后能有更多无障碍应用出现吧。返回搜狐,查看更多

责任编辑: