庆云古诗词

庆云古诗词

危!ChatGPT一出,这10大职业可能先丢饭碗

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


ChatGPT一出,很多人害怕自己的工作会被AI取代。最近,有外媒盘点了最可能被ChatGPT取代10大高危职位。

自从去年11月发布以来,OpenAI的ChatGPT已经被用来写求职信,创作儿童读物,甚至帮助学生作弊。

聊天机器人可能比我们想象的还要强大。谷歌发现,从理论上讲,如果该机器人在公司面试,搜索引擎会雇用它作为入门级的编码员。

测试ChatGPT的亚马逊员工说,它在回答客户支持问题方面做得「非常好」,在制作培训文件方面「很棒」,在回答围绕企业战略的询问方面「非常强」。

最近,Insider与专家共同研究,并编制了一份被人工智能取代的风险最高的工作清单。

1. 技术工种(程序员、软件工程师、数据分析师)

编码和计算机编程是紧缺技能,但ChatGPT和类似的人工智能工具有可能在不久的将来填补一些空白。

麦肯锡全球研究院的合伙人Anu Madgavkar表示,软件开发人员、网络开发人员、计算机程序员、编码员和数据科学家等技术工作对人工智能技术「取代他们更多的工作」是「相当容易接受的」。

这是因为像ChatGPT这样的人工智能擅长以相对准确的方式计算数字。

事实上,像ChatGPT这样的先进技术可以比人类更快地生成代码,这意味着可以用更少的员工来完成工作。

布鲁金斯研究所的高级研究员Mark Muro表示,需要一个软件开发人员团队的工作现在可能只需要几个人。

像ChatGPT制造商的OpenAI这样的科技公司已经在考虑用人工智能取代软件工程师了。

尽管如此,哥伦比亚商学院教授Oded Netzer认为,人工智能将帮助编码员而不是取代他们。

「就工作而言,我认为它主要是一种增强剂,而不是完全取代工作,」Netzer告诉CBS MoneyWatch。「编码和编程就是一个很好的例子。它实际上可以很好地编写代码。」

2. 媒体工作者(广告、内容创作、记者)

小编瑟瑟发抖

Madgavkar认为,整个媒体工作――包括那些广告、技术写作、新闻和任何涉及内容创作的角色――可能会受到ChatGPT和类似形式的人工智能的影响。

原因很简单:人工智能可以很好地阅读、书写和理解基于文本的数据。

「分析和解释大量基于语言的数据和信息是一种技能,你会期待生成性人工智能技术的提升,」Madgavkar说。

经济学家Paul Krugman在《纽约时报》的一篇专栏文章中说,ChatGPT可能能够「比人类更有效地」完成报告和写作等任务。

媒体行业已经开始尝试使用人工智能生成的内容。科技新闻网站CNET使用与ChatGPT类似的人工智能工具写了几十篇文章,尽管不得不发布一些更正。

但Madgavkar说,内容创作者所做的大部分工作都是无法自动化的。

她说:「这些职业中的每一项都有大量的人为判断。」

3. 法律行业工作者(律师助力、法律助理)

与媒体角色一样,法律行业的工作,如律师助理和法律助理,负责消费大量的信息,综合他们所学的东西,然后通过法律简报或意见书使其易于消化。

Madgavkar说,像这些面向语言的角色很容易被自动化。

她补充说:「这些数据实际上是相当结构化的,非常以语言为导向,因此对生成性人工智能相当有利。」

但同样,人工智能也不会完全实现这些工作的自动化,因为它需要一定程度的人类判断,以了解客户或雇主想要什么。

「这几乎有点像这些职业可能得到的生产力提升,因为你可以使用实际上做得更好的工具,」Madgavkar说。

4. 市场研究分析师

人工智能善于分析数据和预测结果。这就是为什么市场研究分析师可能容易受到人工智能驱动的变化的影响。

市场研究分析师负责收集数据,在这些数据中确定趋势,然后利用他们发现的东西来设计有效的营销活动,或决定在哪里投放广告。

5. 教师

全国各地的教师都在担心学生利用ChatGPT作弊,但根据罗切斯特理工学院计算和信息科学系副主任的说法,他们也应该考虑到自己的工作安全。

「ChatGPT已经可以轻松地教课了。」

「虽然它在知识方面有错误和不准确的地方,但这很容易改进,」他说。「基本上,你只需要训练ChatGPT。」

6. 财务(财务分析师,?个人财务顾问)

布鲁金斯学会的研究员Muro说,像市场研究分析师一样,金融分析师、个人财务顾问以及个人金融领域其他需要操作大量数字数据的工作都会受到人工智能的影响。

「人工智能可以识别市场的趋势,强调投资组合中哪些投资表现更好,哪些更差,沟通所有这些,然后由例如金融公司使用各种其他形式的数据来预测更好的投资组合,」Muro说。

他说,这些分析师赚了很多钱,但他们的部分工作是可以自动化的。

7. 交易员

罗切斯特理工学院的施也告诉《纽约邮报》,华尔街的某些角色也可能处于危险之中。

他说:「在投资银行,人们从大学毕业就被雇用,花两三年时间像机器人一样工作,做Excel建模--你可以让人工智能来做这些。」

8. 平面设计师

在12月的《哈佛商业评论》一文中,三位教授指出,DALL・E是一种能在几秒钟内生成图像的人工智能工具,是平面设计行业的潜在颠覆者。

「提高数百万人创造和处理图像的能力,将对经济产生深远的影响,他们写道,对于一些工作受到直接影响、难以适应的人来说,人工智能的这些最新进展肯定会迎来一个困难和经济痛苦的时期。」

9. 会计师

会计通常被视为一个稳定的职业,但即使是这个行业的员工也可能面临风险。

多伦多大学传播、文化、信息和技术研究所副教授Brett Caraway在多伦多全球新闻广播上表示,技术还没有让所有人失业,但它确实让一些人失业了。

Caraway补充说,「智力劳动」尤其可能受到威胁。

「这可能是律师、会计师,」他说。「这是新的东西,看看它对就业和政治有多大的破坏性和痛苦,将是很有趣的。」

10. 客服

你可能已经经历过给公司的客户服务打电话或聊天,然后由机器人来回答。ChatGPT和相关技术可能会继续这种趋势。

科技研究公司Gartner在2022年的一项研究预测,到2027年,聊天机器人将成为大约25%的公司的主要客户服务渠道。

参考资料:

【【网址】】/chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023-02#accountants-9

https://www.reddit.com/r/technology/comments/10tmjp4/chatgpt_may_be_coming_for_our_jobs_here_are_the/


马斯克呼吁暂停训练ai系统回应 今日新闻马斯克

马斯克突然宣布,马斯克拒绝接种,马斯克重大宣布,马斯克推送

中国基金报 泰勒

科技圈出大事了,近日,包括马斯克、苹果联合创始人斯蒂夫・沃兹尼亚克在内的1000多名人工智能专家和行业高管签署了一份公开信,他们呼吁将AI系统的训练暂停六个月,理由是对社会和人性存在潜在风险。

马斯克、图灵奖得主等千名专家呼吁暂停超强AI研发,至少6个月

事情是这样的,29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。

截至发稿,这封信已有1126名科技领袖和研究人员签名,除了马斯克、辛顿和马库斯之外,还包括图灵奖得主约书亚・本希奥、《人工智能:现代方法》作者斯图尔特・罗素、 苹果公司联合创始人史蒂夫・沃兹尼亚克、Stability AI首席执行官埃马德・莫斯塔克等科技界领袖人物。

公开信内容是这样的:

具有人类竞争力智能的AI系统可能会对社会和人类造成深刻的风险,这一点已经被广泛研究并得到了顶级AI实验室的认可。正如广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,目前尚无这种级别的规划和管理。最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。

当代人工智能系统现在在一般任务上表现与人类相当,我们必须扪心自问:

我们是否应该让机器用宣传和虚假信息充斥我们的信息渠道?

我们是否应该自动化所有的工作,包括那些富有成就感的工作?

我们是否应该开发非人类的思维,可能最终会超过我们、智胜我们、使我们过时并取代我们?

我们是否应该冒险失去对我们文明的控制?

这些决策不能委托给未经选举的技术领袖。强大的AI系统只有在我们确信其影响将是积极的、风险可控的情况下才应该开发。这种信心必须有充分的理由,并随着系统潜在影响的程度增加而增强。【【微信】】 最近关于人工智能的声明指出:「在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的工作来说,人们应该在合适的时间点限制用于创建新系统的计算增长率。」我们认为,现在已经到了这个时间点。

因此,我们呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。这种暂停应该是公开和可验证的,并包括所有关键人员。如果无法快速实施这样的暂停,政府应该介入并实行叫停。

AI实验室和独立专家应该利用这个暂停时间共同开发并实施一套共享的高级AI设计和开发安全协议,这些协议应该由独立的外部专家进行严格审核和监督,这些协议应确保遵守它们的系统是安全的,无可置疑的。这并不意味着总体上暂停 AI 开发,而是从具有新兴功能的、不可预测的大型黑盒模型的危险竞赛中后退一步。

人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。

同时,AI开发人员必须与决策制定者合作,大力加速强大的AI治理系统的发展。这些治理系统至少应该包括:

专门针对AI的新型和有能力的监管机构;

对高能力的AI系统和大量计算能力的监督和跟踪;

帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;

一个强大的审计和认证生态系统;

对由AI引起的损害的责任;

针对技术AI安全研究的强大公共资金;

资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。

人类可以在AI的帮助下享受繁荣的未来。我们已经成功地创建了强大的AI系统,现在可以享受“人工智能之夏”,在这个夏天,我们收获了回报,为所有人明确的利益设计这些系统,并给社会一个适应的机会。社会已经暂停了其他可能对社会产生灾难性影响的技术的发展。我们在人工智能领域也能这么做。让我们享受一个漫长的AI夏季,而不是匆忙而不准备地迎接秋天的到来。(Let's enjoy a long AI summer, not rush unprepared into a fall)。

GPT-4老板:AI可能会杀死人类,已经出现我们无法解释的推理能力

值得一提的是,【【微信】】 CEO奥特曼Altman在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。

在此次采访中,Altman提出了一点关于GPT的新颖之处,即推理能力。“这个模型的神奇之处在于…对于很多它都不准确的定义,它可以进行某种推理。”

Altman指出,“我认为这很了不起,最令人兴奋的是,在提取人类知识的过程中,它产生了这种推理能力。”

Altman谈及了近期围绕ChatGPT产生的诸多问题,坦承就连【【微信】】团队,也根本没搞懂它是如何“进化”的:

从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。

唯一的途径是向ChatGPT提问,从它的回答中摸索它的思路。

Altman称不会回避“人工智能可能杀死全人类”的说法。Yudkowsky此前指出“人工智能可能杀死所有人”。对于此,Altman回应道,“我认为有这种可能性,并且承认这一点很重要,因为如果我们不谈论它、不把它视为潜在的事实,那么我们就不会投入足够的努力去解决这个问题。” “我认为我们必须开发新的技术来解决这个问题…我所知道的解决这类问题的唯一方法就是不断迭代,尽早学习。”