庆云古诗词

庆云古诗词

科技观察|高科技作案工具?“达摩克利斯之剑”已经悬在ChatGPT头上

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

高科技罪案调查全集,高科技犯罪案例的新闻,高科技犯罪怎么处理,科技罪案

封面新闻记者 边雪

大型语言模型(以下简称LLMs)正在经历从未有过的快速发展,并迅速成为科技界的主流研究对象之一。毫无疑问,LLM的发展标志着机器学习与人工智能向前迈出了重要的一步,但在展示其处理平凡任务和复杂创造性任务能力的同时,LLMs似乎对所有行业都有潜在的影响。

对执法部门而言,LLMs的发展意味着什么?为了应对公众对ChatGPT、Google Bard等LLMs产品日益增长的关注,欧盟执法机构――欧洲*组织(Europol)创新实验室组织了一系列研讨会,与来自整个组织的主题专家探讨犯罪分子如何滥用LLM,以及如何协助调查人员开展日常工作,并在当地时间3月27日发布了技术观察报告以记录会议讨论结果。

在欧洲*组织发表题为《ChatGPT-大型语言模型对执法的影响》的报告(以下简称报告)称,人工智能聊天机器人ChatGPT可能被滥用于网络钓鱼、宣传虚假信息以及网络犯罪,这加剧了外界对这一新兴事物在法律、道德等方面的担忧。“在技术观察快报中,欧洲*组织的创新实验室经常与其他执法机构和业务合作伙伴并肩工作,对可能影响执法工作的新技术进行分析。”

欧洲*组织发表题为《ChatGPT-大型语言模型对执法的影响》的报告。(图片来源:官网截图)

警惕!ChatGPT也可以成为犯罪者的工具

OpenAI旗下产品ChatGPT,在2022年11月发布之后,便迅速引发全球科技界的轰动。让聊天机器人生成论文、报告、电子邮件、编程代码和各种其他文本。据报告,欧洲*组织详细介绍了该模型如何被滥用于更邪恶的目的。警方声称,事实上,已经有人在使用这些模型进行非法活动。

“随着ChatGPT等LLMs的能力不断升级,犯罪分子可能滥用这类人工智能系统,前景不容乐观,这些类型的模型可能对执法工作产生的影响已经可以预见,”欧洲*组织在报告中表示,通常情况下,犯罪分子很快就会利用新技术,而在 ChatGPT 公开发布几周后,他们就发现了利用相关软件犯罪的具体案例。

尽管ChatGPT更擅长拒绝回答可能“有害”的问题请求,但用户早已经找到了绕过OpenAI内容过滤系统的方法。“例如,有些人让它回答有关如何制造武器的说明。还在教会用户如何用ChatGPT犯罪之后,请其进行分步指导。”

欧洲*组织在报告中发出警告,“如果潜在犯罪分子对特定犯罪领域一无所知,ChatGPT可以通过提供关键信息来显着加快潜在犯罪分子的学习过程,然后帮助他们在后续步骤中进一步探索犯罪方法。因此,ChatGPT可用于在没有先验知识的情况下了解大量潜在的犯罪领域,从如何闯入房屋,网络犯罪和儿童性虐待。”

“该模型的相关开发机构承认,所有这些信息已经在互联网上公开,但该模型使查找和了解如何实施特定犯罪变得更加容易。”欧洲*组织强调,ChatGPT或被用于三个主要的犯罪领域,分别是网络钓鱼、宣传虚假信息以及网络犯罪。

网络钓鱼也是网络犯罪的一个重要的应用领域,它通过发送虚假电子邮件来诱使用户点击链接。在过去,由于语法或语言错误,这些骗局很容易被发现,而人工智能生成的文本高度逼真加大了骗局被识破的难度。

“ChatGPT能够起草高度逼真的文本,这使其成为网络钓鱼的有用工具。”欧洲*组织表示。

一款由ChatGPT生成的网络钓鱼邮件。(图片来源:网络截图)

此外,由于该聊天机器人拥有复制语言模式的能力,可以模仿特定个人或群体的说话风格,犯罪分子可能会利用它来瞄准受害者。

ChatGPT生成代码的能力甚至是恶意代码――通过降低创建恶意软件所需的技术技能,增加了网络犯罪的风险。

悬在头上的“达摩克利斯之剑”

封面新闻记者在该报告中发现,欧洲*组织认为,对于一个几乎没有技术知识的潜在罪犯来说,LLMs的诞生是一个非常“宝贵的资源”。“与此同时,更先进的用户可以利用这些改进的功能来进一步完善甚至自动化复杂的网络犯罪手法。”

LLMs虽仍处于起步阶段,但随着科技公司投入资源开发技术,它们正在迅速改进。自ChatGPT发布以来,微软和谷歌都在其搜索引擎中推出了基于人工智能的网页搜索聊天机器人,OpenAI已经发布的GPT-4是一个更强大的系统,而据此研发的产品也在越来越广泛地应用于人们的工作与生活。

欧洲*组织表示,随着越来越多的公司推出人工智能功能和服务,这将为利用该技术从事非法活动开辟新途径。“多模式人工智能系统,将对话聊天机器人与能够产生合成媒体的系统结合起来,例如高度令人信服的假消息,其内容可能覆盖人类的各种感官能力,如视觉和听觉,”报告指出,例如,有人询问“ChatGPT是否可以接受有害数据训练的语言模型秘密版本,可以托管在没有内容过滤器的暗网上。”

无论是接连迭代更新的ChatGPT,还是刚开启内测的Google Bard,前景看似一片光明之余,似乎也绕不开“达摩克利斯之剑”的魔咒。

因ChatGPT犯罪的人已经上路了

欧洲*组织的担心并非空穴来风。在封面新闻记者检索时发现,围绕类似的安全突破方法,一系列犯罪方法论已经成型,比如借助ChatGPT创建信息窃取程序。

不久前,一篇《ChatGPT――恶意软件的好处》的帖子曾在国外暗网黑客论坛上传播,该帖子的创建者分享了自己利用ChatGPT建立窃取程序代码的全过程,按照操作流程,ChatGPT在较短时间内即可生成一款可扒取、压缩、传输12类文件的程序。

除了信息窃取,ChatGPT还能帮助黑客生成攻击软件和勒索病毒。据英国《金融时报》报道,近日,一款由ChatGPT辅助生成的SIM交换攻击脚本开始在网络上传播。

SIM交换攻击即身份盗窃攻击,原理是突破移动电话公司对电话号码的控制权,将电话号码从原持有者的SIM卡交换到由攻击者控制的SIM卡中,从而控制受害者的移动电话。

勒索病毒则是通过ChatGPT来生成多层加密软件,以此对受害者的计算机进行远程锁定,通过向受害人收取被锁计算机的“赎金”来获益。

值得注意的是,在报告最后,欧洲*组织还提出了疑问:“LLMs服务将如何处理用户数据还存在不确定性――用户与之会话是否会被存储或有可能向未经授权的第三方披露敏感的个人信息?如果用户生成有害内容,是否应向执法机关报告?”

未来,随着监管力量的增强,如果OpenAI的数据使用方式被进一步规范,ChatGPT的深度神经网络能否真正做到忘记那些用于训练自己的数据?

这个问题的答案,或许将决定悬在ChatGPT头上的“达摩克利斯之剑”能否安全摘下。



ai路线图 ai智能出图


封面新闻记者 边雪 谭羽清

说到车水马龙的街道,你的脑海里会浮现出什么景象?是繁华的商业街,还是热闹的步行街?但近期开放内测的AI新伙伴“文心一言”一开始却是这么想的:

不仅仅是车水马龙,“文心一言”似乎对很多带有比喻的词语都不太理解比如:

图片源于网络

对此有网友表示:“给人一种把字面意思表现到极致的感觉。”

这也令人不禁联想到了电影中MOSS曾表示不可以对它使用比喻、暗示、反问等修辞手法,是不是因为它听不懂比喻?

为什么“博学多才”的AI会有这种“低级缺陷”?3月23日,封面新闻记者请教了该领域的业内学者和“文心一言”的“前辈”ChatGPT。

业内学者:AI对语义和知识的理解还未到达人类水平

“出现这种情况的主要问题还是目前的AI对语言内部所蕴含的语义和知识的理解还未到达人类的水平,目前的理解还是在字面上,因此会出现生成的图片与人们认知的常识有很大的差距。”

西南科技大学计算机科学与技术学院软件工程专业负责人,CCF(中国计算机学会)、CAAI(中国人工智能学会)会员杨春明副教授杨明春告诉封面新闻记者,目前来看,“文心一言”生成的图片内容还是比较完整的,主要是将成语中主要的对象进行了组合,只是在表达的意境上和成语大相径庭。

对于机器来说,只要计算速度够快,倒也不是问题。重点的问题是这些知识目前计算机还不能用于直接计算,这中间还要很多问题需要去解决,学习成语背后蕴含的寓意和知识,是目前AI需要去重点突破的。

杨春明表示,除了成语,中文里面很多谚语、成语、歇后语可能都会令“文心一言”的理解出现差错,“包括对某些诗词的理解,也会有这种问题,但在反复使用、交互后,AI还是可以进一步学习到一些新的知识,会变得越来越好的。”

而3月23日一早,记者再次请“文心一言”绘制了一些之前闹了笑话的内容,发现进步已经在发生了,“车、水、马龙”的街道恢复成了正常的街道。

夫妻肺片、鱼香肉丝、驴肉火烧、老婆饼也回归了传统菜品行列。

但部分人类反馈的内容它好像还是无法理解和吸收。比如在记者的“循循善诱”下,“文心一言”明显知道“虎背熊腰”的意思,但始终无法画出一个“虎背熊腰的人”。

而“蚂蚁上树”这道菜对它来说似乎太难了,在记者的一再追问下它直接放弃了回答。

ChatGPT:我们需要学习更多语言和文化背景

对于文心一言难以正确理解成语这件事,作为“同类”的ChatGPT是怎么看的?记者在抱着试试看的态度将问题输入ChatGPT后,它还真的给出了答案。

记者:

请问为什么对话类的Ai,在根据文字生成图片的时候无法理解一些比喻式的词语?(如车水马龙、熊熊火焰、夫妻肺片等都会画的驴头不对马嘴)

ChatGPT:

对话类的AI在根据文字生成图片时,主要是通过深度学习算法来实现的。这些算法通常是使用大量的数据进行训练,从而使AI能够学习到各种不同的语言和文化背景下的表达方式。但是,对于一些比喻式的词语,AI可能无法直接理解其真正的含义,因为这些词语通常具有隐喻和象征意义。

例如,对于“车水马龙”这个词语,它的真正含义是指道路上车辆和人流繁忙,非常拥挤。但是,AI可能无法直接理解这个比喻,因为它没有能力像人一样从语言中获取上下文信息,从而无法理解这个词语的真正含义。

同样地,对于“熊熊火焰”这个词语,它的真正含义是指火势猛烈、不断燃烧。但是,AI可能只是简单地将“熊熊”理解为一个形容词,而无法理解它和“火焰”之间的联系和隐喻。

因此,对话类的AI在生成图片时可能会出现一些错误或不准确的情况。为了解决这个问题,我们需要让AI学习更多的语言和文化背景,并且在训练模型时增加对比喻式语言的理解和处理。此外,我们也可以通过对AI生成的图片进行人工审核和修正来提高其准确性。