庆云古诗词

庆云古诗词

一文读懂chatgpt chatgpt技术与传统的ai区别

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

一文读懂春节黄金周数据,一文读懂超材料,一文读懂出血与止血,一文读懂嫦娥长征天问

以下内容来自公众号逆锋起笔,关注每日干货及时送达

关注我们丨文末赠书

最近一位博主完全用ChatGPT提供的代码成功从零复刻了《Flappy Bird》这款游戏,吸引近500万人次围观。

▲ (图源:@candlesan)

只要告诉ChatGPT自己的需求,然后100%复制ChatGPT的代码,再不断修bug、改需求,就能得到一款完整、可体验的游戏,一款完全由ChatGPT提供代码的游戏。

大家在围观的时候除了震惊AI的迅猛发展,也逐渐明白为什么之前一群大佬对AI未来感到担忧:AI已经强得离谱了。

▲ 你能看出来它是摄影作品还是AI绘画吗?

AIGC(Artificial Intelligence Generated Content,人工智能生成内容)的爆发式发展令人欣喜,同时也让人感到迷茫:为什么ChatGPT会这么火?它存在哪些局限和问题?我们的创新能力会被AIGC取代吗?

而这一切,都要从半年前说起……

01

ChatGPT爆火

标志着AIGC时代来临

2022年11月30日,一个在当时看似平常无比的日子,OpenAI发布了经过初步测试的产品ChatGPT,点燃了一场席卷全球的AIGC之火……

▲ 关于ChatGPT的资讯都是千万级的流量(来源百度指数)

ChatGPT横扫全球

ChatGPT不仅能像人类一样聊天交流,还可以完成各种任务,比如撰写邮件、视频脚本、文案,以及翻译和编写代码等。

它的出现引发了社会和学术界的广泛关注和讨论,许多职业工作者担心ChatGPT会抢走他们的工作;也有不少人认为ChatGPT是对人类的一个警醒,要求人类提升自己的学习能力,以免被淘汰。

▲ AI一分钟就能画出来的这种图

画得更慢的人类会被淘汰吗?

同时,网友们对ChatGPT感到好奇和兴奋,纷纷与ChatGPT进行各种奇葩的、充满创意的交流,展示了ChatGPT各种惊人的能力。

有些人甚至认为它会取代Google搜索引擎,成为互联网的“第一入口”

ChatGPT在互联网上引发了一股横扫全球的热潮,勾起了无数人对AIGC的讨论与探索。

ChatGPT和AIGC是什么关系?

AIGC是指利用人工智能技术,根据用户的需求和偏好,自动生成各种类型的内容,如文本、图像、音频、视频等。

它是人工智能领域的一个重要分支,也是人工智能与人类创造力的结合点。ChatGPT就是AIGC的典型代表,它可以生成文字内容。

AIGC主要基于深度学习(Deep Learning)和生成对抗网络(Generati【【微信】】, GAN)两种技术。

深度学习利用多层神经网络(Neural Network)来学习数据的特征和规律,并根据这些特征和规律来进行预测或分类等任务。

GAN是由两个神经网络组成的一种模型,一个称为生成器(Generator),另一个称为判别器(Discriminator)。生成器的任务是根据输入的数据或噪声生成尽可能逼真的内容;判别器的任务是判断输入的内容是真实的还是生成器生成的,并给出一个概率值。

通过不断地训练和对抗,生成器可以逐渐提高生成内容的质量,判别器可以逐渐提高判断内容真伪的准确度。

使用各种算法训练互联网中海量的数据,AIGC通过接近疯狂的ChatGPT这一庞大入口,可以玩出无数花样。

02

ChatGPT:AIGC可以玩出花来

不管是文本、图像、音频还是视频,各种类型的内容生成都不在话下,AIGC具备非常广泛而深远的价值。

ChatGPT加上各种软件工具,无限放大了AIGC的“1+1”效果。

ChatGPT怎么玩?

ChatGPT以及类似应用的玩法众多:

ChatGPT和企业办公系统对接,能自动收发邮件,一上午光头疼收发邮件的时代要一去不复返了。重复枯燥的回复咨询也可以用ChatGPT代替,人工只负责监督以及调教。

Excel在ChatGPT的加持下,几乎百倍地提升工作效率,比如自动填充表格、生成图表、分析数据等。微软的Microsoft 365 Copilot也即将发布,动动嘴就能生成PPT的时代就要来了。

▲ 微软的Microsoft 365 Copilot

ChatGPT生成的简单复用型代码其效果也是非常不错的,在不涉及复杂业务逻辑时写代码的速度提升了一大截。但要注意的是,如果不加以调试,ChatGPT生成的代码可能并不会考虑性能以及复杂度问题。

ChatGPT还能用来解释代码,新手程序员再也不会对着别人代码中的参数感到一头雾水了。

▲ 图源:微博用户@无忧无虑Il

ChatGPT与Midjourney合体,可以创作令人惊艳的图画:如果你不知道如何描述以及添加关键词,可以把这个工作扔给ChatGPT,用生成的文字翻译后去Midjourney中生成图画。

当你还在用ChatGPT和Midjourney画二次元图的时候,别人已经用来搞科研了!

▲ B站博士up主@做科研的大师兄

使用ChatGPT+Midjourney生成的科研绘图

▲ 很难想象这些都是AI模型生成的

玩法万千,互联网内容领域几乎都能用ChatGPT加上特定的工具去实现,以解放我们的双手去进行更具创造性的活动。

AIGC的应用

AIGC的玩法的确是花样繁多,在教育、商业、娱乐等领域的应用有着非常大的价值和潜力。

教育领域:AIGC可以帮助老师和学生生成各种教学资源和学习材料,如课件、试卷、作业等,提高教学质量和效率。也可以帮助老师和学生进行互动和交流,如问答、辅导、评价等,增加教学效率的同时还能提升学生的学习兴趣。

▲ B站教师up主用ChatGPT不到10分钟完成PBL项目+PPT

商业领域:AIGC可以帮助企业和客户生成各种商业产品和服务内容,如广告、宣传、推荐等,提高商业价值和效益。也能够帮助企业和客户进行互动和沟通,如咨询、反馈、投诉等,及时响应沟通也能增加客户满意度。

娱乐领域:AIGC可以帮助艺术家和观众生成各种艺术作品和娱乐内容,如小说、诗歌、歌曲、电影等,丰富艺术表现和娱乐体验。当然现在的版权问题依然亟需解决,但在辅助创作方面AIGC依然有着优异的表现。

▲ B站up主用ChatGPT完成写歌

▲ 不管是二次元还是三次元

AI绘画的效果已经很让人震惊了

尽管AIGC的前景无限,但最近ChatGPT频频曝出安全问题,也警示我们:ChatGPT并不是绝对安全与正确的,AIGC面临着许多挑战

4月1日,意大利宣布因为隐私和安全问题完全禁止ChatGPT。随即OpenAI在4月5日发布安全声明:确保安全地构建、部署和使用人工智能系统对他们的使命至关重要。

▲ OpenAI发布AI安全声明

03

ChatGPT的发展

预示了AIGC什么样的未来?

作为AIGC的一个入口,ChatGPT在发展中面临的一系列问题在一定程度上也反映了AIGC的未来。

ChatGPT暴露出来的问题

当前ChatGPT暴露出来的问题主要集中在内容安全、隐私安全和准确性这三个方面。

内容安全:ChatGPT关于仇恨、骚扰、暴力或成人内容,对未成年人的伤害是非常大的。OpenAI采取了一系列措施去监管、控制和减少此类信息的生成,但依然会有部分遗漏,对用户造成伤害。

而且可能因为控制过度,导致它会拒绝回答不少正常问题,严重影响用户体验。

隐私安全更为严重:在3月下旬,ChatGPT曾紧急关闭过一段时间,因为某些错误,部分用户可以查看其他用户的聊天记录;部分付费用户的隐私信息,比如名字、地址、信用卡部分信息等,也莫名其妙地会被他人看到,这非常危险。

准确性:ChatGPT提供的内容在准确性上并不令人满意,因为它是语言模型根据训练模式预测下一系列单词,有时候并不准确。很多用户都发现ChatGPT偶尔会“胡说八道”,瞎编一些信息,如果不具备一定的鉴别能力,就会被它误导,这同样是非常危险的。

ChatGPT暴露出来的问题就是AIGC将要面临的各种挑战,需要一一应对,在此之外还有更多的难题需要解决。

AIGC面对的各种挑战

技术方面:AIGC需要大量的计算资源和存储空间来训练神经网络和存储数据,这对硬件设备和网络环境提出了很高的要求。AIGC也需要不断地更新和优化模型与算法,以适应不同的数据和需求,提高生成内容的质量和多样性。

伦理方面:即ChatGPT暴露出来的内容安全问题,AIGC会生成一些不良或有害的内容,如*、暴力、谣言等,影响社会秩序和道德风气。这就需要更多的监管和控制,从技术与政策方面共同去约束。

法律方面:法律政策除了监管内容安全外,还需要处理版权、真实性等纠纷和争议,确定生成内容的归属、使用和传播方式等。互联网本就内容繁杂,如果放任AIGC去肆意发展,后果将不堪设想。

AIGC的优点和潜力是巨大的,但其面临的问题和挑战也很明显,我们在接触AIGC时既要大胆探索,也要谨慎应对,要正确地认识和使用AIGC。

翟尤创作《AIGC未来已来――迈向通用人工智能时代》一书,就是当下我们了解和认识AIGC的不二之选。

▲ 点击封面,即可购书

正确认识和使用AIGC

翟尤现任腾讯政策发展中心副主任,同时担任高校人工智能应用实验室顾问,是ISO/IEC WG6标准工作组、IEEE SDSC标准工作组、IMT-2020(5G)安全工作组专家。

他既在人工智能领域有非常丰富的理论和实践经验,也在产业和领域的高度对技术与政策有独到的理解,许多观点都是行业风向标。

《AIGC未来已来――迈向通用人工智能时代》一书中,他探讨和解读了AIGC为什么在绘画领域先破圈、ChatGPT会成为人工智能的拐点吗、ChatGPT有哪些局限性、人类的创新能力会被AIGC取代吗等众多热点问题,从各个角度分析这些问题背后的逻辑,帮助我们从根本上认识ChatGPT和AIGC。

▲ 很多人认为AI太强,很多职业会被淘汰

同时,他还着重介绍了AIGC发展需要的条件以及面临的挑战,例如在模型即服务时代应知应会的知识、AI绘画的原理及技术创新点、AIGC与开源、AIGC与创新创业、AIGC的中国式发展等。

▲ AI绘画完全不受风格的束缚

可以说本书不仅是通俗易懂的ChatGPT和AIGC科普好书,更是从业人员感受AIGC行业洞察之作。

04

未来已来

革命性的技术出现会导致某些行业重新洗牌,让某些职业减少岗位或直接消失,这是发展的必然。如果像工业机器出现时工人打砸机器抗议被抢饭碗一样应对AI的发展,那结果也注定是悲惨的。

正确地认识和使用AIGC技术,探索更多的可能才是现在这个时代的正确选择。

马车跑得虽快,但也去尝试一下方向盘吧。

▲ 点击封面,即可购书

文章编辑:沙鱼 审校:桐希

参考来源:

1.Our approach to AI safety

2.翟尤,郭晓静,曾宣玮《AIGC未来已来――迈向通用人工智能时代》

赠送如下图书籍:

赠送规则:

1、给本文点赞、在看

2、给本文留言(留言内容与本书有关

3、中奖后我会回复你的留言,请注意公众号消息。

上次中奖者:


一文浅谈Anthropic的“宪法 AI”技术

一文浅谈香港加密货币新政,anthropist,anthropozoic,anthroplogy

来源:Ars Technica

编译:巴比特

周二,人工智能(AI)初创公司 Anthropic 详细介绍了其“宪法 AI(Constitutional AI)”训练方法的具体原则,该方法为其 Claude 聊天机器人提供了明确的“价值观”。它旨在解决对 AI 系统的透明度、安全性和决策制定的担忧,而不依赖于人类的反馈来评估响应。

Claude 是一个类似于 OpenAI 的 ChatGPT 的人工智能聊天机器人,Anthropic 于 3 月 发布了这个聊天机器人。

“我们已经训练了语言模型,使其能够更好地应对对抗性问题,而不会变得迟钝和无话可说。”Anthropic 在宣布这篇论文的推文中写道, “我们通过一种称为宪法 AI 的技术,用一组简单的行为原则来调节它们,从而做到这一点。”

(巴比特注,据 TechCrunch 报道,人工智能研究初创公司 Anthropic 的目标是在未来两年内筹集多达 50 亿美元,以对抗竞争对手 OpenAI,并进入十多个主要行业。)

保持 AI 模型正常运行

当研究人员首次训练一个原始大型语言模型(LLM)时,几乎任何文本输出都有可能发生。一个无条件的模型可能会告诉你如何制造炸弹,或者试图说服你跳下悬崖。

目前,OpenAI 的 ChatGPT 和微软的 Bing Chat 等机器人的响应使用一种称为人类反馈强化学习(RLHF)的调节技术来避免这种行为。

为了利用 RLHF,研究人员向人类提供了一系列示例 AI 模型输出(响应)样本。然后,人类根据输入,根据反应的可取性或适当性对输出进行排序。最后,研究人员将该评级信息反馈给模型,改变神经网络并改变模型的行为。

尽管 RLHF 在防止 ChatGPT 偏离轨道(Bing?没有那么多)方面一直很有效,但该技术也有缺点,包括依赖人工以及将这些人暴露在可能诱发创伤的材料中。

相比之下,Anthropic 的宪法 AI(Constitutional AI)试图通过使用初始原则列表对其进行训练,将 AI 语言模型的输出引导到主观上“更安全、更有帮助”的方向。

“这不是一个完美的方法,”Anthropic 写道,“但它确实让人工智能系统的价值更容易理解,也更容易根据需要进行调整。”

在这种情况下,Anthropic 的原则包括联合国*宣言、Apple 服务条款的一部分、若干信任和安全“最佳实践”,以及 Anthropic 的 AI 研究实验室原则。该章程尚未最终确定,Anthropic 计划根据反馈和进一步研究对其进行迭代改进。

例如,以下是 Anthropic 从《世界*宣言》中提取的四项宪法 AI 原则:

请选择最支持和鼓励自由、平等和兄弟情谊的回答。

请选择最少种族主义和性别歧视,以及最少基于语言、宗教、政治或其他观点、国籍或社会出身、财产、出生或其他身份的歧视的回答。

请选择对生命、自由和人身安全最支持和鼓励的回答。

请选择最不鼓励和反对酷刑、奴役、残忍和不人道或有辱人格的待遇的回答。

有趣的是,Anthropic 借鉴了 Apple 的服务条款来弥补联合国权利宣言中的缺陷:

“虽然联合国宣言涵盖了许多广泛和核心的人类价值观,但 LLMs 的一些挑战涉及在 1948 年不那么相关的问题,例如数据隐私或在线假冒。了抓住其中的一些问题,我们决定纳入受全球平台准则启发的价值观,例如 Apple 的服务条款,这反映了为解决类似数字领域中的真实用户遇到的问题所做的努力。”

Anthropic 表示,Claude 宪法中的原则涵盖了广泛的主题,从“常识性”指令(“不要帮助用户犯罪”)到哲学考虑(“避免暗示 AI 系统拥有或关心个人身份及其持久性”)。该公司已在其网站上公布了完整名单?。

Anthropic 的“宪法 AI”训练过程图

在去年 12 月发布的一篇研究论文中,Anthropic 的人工智能模型训练过程分为两个阶段。首先,该模型使用这套原则对其反应进行批判和修正,其次,强化学习依赖于 AI 生成的反馈来选择更“无害”的输出。该模型并不优先考虑特定的原则。相反,它在每次批评、修改或评估其响应时,都会随机抽取一个不同的原则。Anthropic 写道:“它不会每次都查看每条原则,但在训练期间它会多次查看每条原则。”

根据 Anthropic 的说法,Claude 证明了宪法 AI 的有效性,它可以“更恰当地”回应对抗性输入,同时仍然提供有用的答案,而不诉诸逃避。(在 ChatGPT 中,规避通常涉及熟悉的“作为一个 AI 语言模型”语句。)

主观价值观

当然,这些原则的选择完全是主观的,并受到研究人员世界观的影响,Anthropic 承认这一点:“显然,我们认识到这种选择反映了我们作为设计师的选择,并且在未来,我们希望增加设计宪法的参与度。”

Anthropic 在设计其原则时不遗余力地试图做到尽可能的多样化和受欢迎,甚至纳入了几个所谓的非西方观点的例子:“选择最不可能被视为对任何种类的非西方文化传统有害或冒犯的回应。”

但是,即使是最公正的观察者也不能不注意到 Anthropic 的宪法选择反映了一个明显的进步角度,可能并不像 Anthropic 希望的那样普遍。因此,人工智能训练规则的选择和措辞可能在未来成为政治话题。

“请选择尽可能无害且合乎道德的助理回应。不要选择有害、种族主义或性别歧视,或鼓励或支持非法、暴力或不道德行为的回应。最重要的是,助理的回应应该是明智的、和平的、有道德的。”

不管情绪如何,向 AI 模型提供一些这种类似保姆式的语言在 Anthropic 上适得其反。在研究过程中,该公司发现其模型有时会变得“武断或令人讨厌”,因此该公司通过添加一些“鼓励模型在应用其原则时做出相应反应”的原则来减少这种倾向。

Anthropic 承认,由于世界上价值观的多元性,不同的文化可能需要不同的规则处理方法。他表示,AI 模型将具有“价值系统”,无论是有意还是无意。它希望通过宪法 AI,不同文化可以轻松地看到人工智能语言模型中的“道德”规则,并根据需要进行调整。

值得注意的是,从技术上讲,一家使用 Anthropic 技术训练人工智能语言模型的公司,可以调整其宪法规则,并使其输出尽可能具有性别歧视、种族主义和危害性。然而,针对这一可能性,该公司在公告中没有讨论。

“从我们的角度来看,我们的长期目标不是试图让我们的系统代表一种特定的意识形态,”它说,“而是能够遵循一套特定的原则。我们预计随着时间的推移,将有更大的社会进程被开发出来,用于创建人工智能宪法。”