庆云古诗词

庆云古诗词

ChatGPT弊端何在?复旦哲学教授为你祛魅

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

chattype,chatplus,chattet,chat thit

昨天,庆祝复旦大学建校118周年相辉校庆系列学术报告第一场在该校相辉堂南堂拉开帷幕,复旦哲学学院教授徐英瑾以“从人工智能哲学的角度看ChatGPT”为题登台开讲。徐英瑾带领听众回顾了人工智能的前世今生和ChatGPT技术的发展路径,并从哲学角度分析这一技术的主要弊端――将“常人”的意见予以全面的机械化复制,从而加剧人类“自欺”现象的泛滥。

在史蒂文・斯皮尔伯格导演的电影《人工智能》中,一对因车祸痛失爱子的夫妻收养了人工智能“大卫”。在被人类养育的过程中,大卫渐渐产生了“我到底是一个机器,还是一个人”的困惑。这背后隐含了一个深刻的哲学问题――机器能够思考吗?正是这个疑问,当年引发了徐英瑾对人工智能的学术兴趣。

探讨和理解人工智能,首先要回归对于“智能”这一概念的辨析。徐英瑾从输入与输出之间的映射关系切入,介绍了人工智能之父阿兰・图灵提出的行为主义标准。判断一物是否有言语行为从而认定其是否智能,这便是著名的图灵测试原理。

没有通过图灵测验,是否仍有可能被认定为人工智能?徐英瑾以不通现代语言的土著、善于筑巢的鸟类以及设想中的外星人为例,阐释了与人类顺畅沟通的言语行为并非认定智能的必要条件,而只是充分条件。

对于人工智能的发展,社会各界的观点目前可大致分为乐观论、悲观论和泡沫论三类。支持“泡沫论”的华裔科学家、斯坦福大学教授李飞飞曾说,不要高估现在人工智能的发展水平,从物理学角度看人工智能,它目前还处于前伽利略阶段,徐英瑾对此表示赞成。

“理解ChatGPT的本质并不困难。”徐英瑾介绍,ChatGPT的英文全称是Chat Generati【【微信】】rmer,其中Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测验的一项发明――早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术+深度学习技术”的进阶版,通俗来说,就是通过数学建模建造出一个简易的人工神经元网络结构。

尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但谈到这种模型与人类的根本区别,徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是通过不断迭代的大规模数据集和人工语料训练后“野蛮投入”的结果,因此,纵使ChatGPT看到“路遥知马力”能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。

从海德格尔哲学的角度看,这种人工智能系统训练方式将不得不把“常人”的意见加以建制化与机械化,由此使得社会意识形态的板结现象变得更为严重。换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤掉。

“这需要我们的高度警惕,”徐英瑾强调,“假若ChatGPT技术在托勒密的时代就出现,哥白尼的‘日心说’恐怕会永远被判定为错误答案。”

由于人工智能训练与当下总是存在时间差,无法面对未来,是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。

人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。技术的跨越必然需要带来应用场景中的深入观察,无论人工智能变得多聪明,适应与满足人类发展的需要是根本指向。大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。

新民晚报记者 张炯强


chatgpt用到大数据技术了么 ChatGPT的大数据分析能力

ttd大数据

毫无疑问,AIGC正在给人类社会带来一场深刻的变革。

而剥开其令人眼花缭乱的华丽外表,运行的核心离不开海量的数据支持。

ChatGPT的“入侵”已经引起了各行各业对内容抄袭的担忧,以及网络数据安全意识的提高。

虽然AI技术是中立的,但并不能成为规避责任与义务的理由。

最近,英国情报机构――英国政府通讯总部(GCHQ)警告称,ChatGPT和其他人工智能聊天机器人将是一个新的安全威胁。

尽管ChatGPT的概念出现没有多久,但对网络安全和数据安全带来威胁的问题已经成为业内关注的焦点。

对于目前还处于发展初期的ChatGPT,如此担忧是否杞人忧天?

01 安全威胁或正在发生

去年年底,初创公司OpenAI推出ChatGPT,之后,其投资商微软于今年推出了基于ChatGPT技术开发的聊天机器人“必应聊天(Bing Chat)”。

由于此类软件能够提供酷似人类的对话,目前这项服务已风靡全球。

GCHQ的网络安全部门指出,提供AI聊天机器人的公司可以看到用户输入的查询内容,就ChatGPT而言,其开发商OpenAI就能够看到这些。

ChatGPT通过大量文本语料库进行训练,其深度学习能力很大程度上依赖于背后的数据。

出于对信息泄露的担忧,目前已有多家公司和机构发布“ChatGPT禁令”。

伦敦金融城律师事务所Mishcon de Reya禁止其律师将客户数据输入ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。

国际咨询公司埃森哲警告其全球70万名员工,出于类似的原因,不要使用ChatGPT,因为担心客户的机密数据最终会落入他人之手。

英国电脑芯片公司Arm的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入公司人员的身份信息或机密数据。

今年2月,摩根大通成为第一家在工作场所限制使用ChatGPT的华尔街投行。

花旗集团和高盛集团紧随其后,前者禁止员工在整个公司范围内访问ChatGPT,后者则限制员工在交易大厅使用该产品。

而在更早些时候,亚马逊和微软为防备员工在使用ChatGPT的过程中泄密,禁止他们向其分享敏感数据,因为这些信息可能会被用作进一步迭代的训练数据。

事实上,这些人工智能聊天机器人背后是大型语言模型(LLM),用户的这些查询内容将会被存储起来,并且会在未来某个时候被用于开发LLM服务或模型。

这就意味着,LLM提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。

尽管LLM运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。因此,企业需要确保他们有严格的政策,提供技术性支持,来监控LLM的使用,以最大限度地降低数据暴露的风险。

另外,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但是由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。

此外,攻击者还可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。

因此,AI可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。

在自动化、AI、“攻击即服务”等技术和模式加持下,网络安全攻击呈现出暴涨趋势。

在ChatGPT火爆之前,已发生了多次黑客使用AI技术进行的网络攻击。

事实上,人工智能被用户调教“带偏节奏”的案例并不鲜见,6年前,微软推出智能聊天机器人Tay,上线时,Tay表现得彬彬有礼,但不到24小时,其就被不良用户“带坏”,出言不逊、脏话不断,言语甚至涉及种族主义、*、纳粹,充满歧视、仇恨和偏见,只好被下线结束了短暂的生命。

另一方面,距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。

02 AI应用要打好安全底座

ChatGPT作为大语言模型,其核心逻辑事实上是海量数据的收集、加工、处理和运算结果的输出。

总的来说,这几个环节可能会在技术要素、组织管理、数字内容三个方面伴生相关风险。

虽然ChatGPT表示,存储训练和运行模型所需的数据会严格遵守隐私和安全政策,但在未来可能出现网络攻击和数据爬取等现象,仍存在不可忽视的数据安全隐患。

特别是涉及国家核心数据、地方和行业重要数据以及个人隐私数据的抓取、处理以及合成使用等过程,需平衡数据安全保护与流动共享。

除了数据与隐私泄露隐患外,AI技术还存在着数据偏见、虚假信息、模型的难解释性等问题,可能会导致误解和不信任。

风口已至,AIGC浪潮奔涌而来,在前景向好的大背景下,关口前移,建立数据安全防护墙也至关重要。

尤其是当AI技术逐渐完善,它既能成为生产力进步的有力抓手,又易沦为黑产犯罪的工具。

奇安信威胁情报中心监测数据显示,2022年1月份-10月份,超过950亿条的中国境内机构数据在海外被非法交易,其中有570多亿条是个人信息。

因此,如何确保数据存储、计算、流通过程中的安全问题,是数字经济发展的大前提。

从整体看,应该坚持顶层设计与产业发展齐头并进,在《网络安全法》的基础上,要细化风险与责任分析体系,确立安全问责机制。

同时,监管部门可开展常态化监查工作,安全领域企业协同发力,构建全流程数据安全保障体系。

对于数据合规和数据安全的问题,特别是在《数据安全法》推出后,数据隐私越来越重要。

如果在应用AI技术的过程中无法保证数据安全和合规,可能会给企业造成很大风险。

特别是中小企业对数据隐私安全方面的知识比较匮乏,不知道应当如何保护数据不会受到安全威胁。

数据安全合规并不是某个部门的事情,而是整个企业最为重要的事情。

企业要对员工进行培训,让他们意识到每个使用数据的人,都有义务保护数据,包括IT人员、AI部门、数据工程师、开发人员、使用报表的人等,人和技术要结合在一起。

面对前述潜藏风险,监管方和相关企业如何从制度和技术层面加强AIGC领域的数据安全保护?

相较于直接针对用户终端采取限制使用等监管措施,明确要求AI技术研发企业遵循科技伦理原则会更具成效,因为这些企业能够在技术层面限定用户的使用范围。

在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度。

例如,可根据数据主体、数据处理程度、数据权利属性等方面对训练数据集中的数据进行分类管理,根据数据对于数据权利主体的价值,以及数据一旦遭到篡改、破坏等对数据主体的危害程度进行分级。

在数据分类分级的基础上,建立与数据类型和安全级别相配套的数据保护标准与共享机制。

目光投向企业,还需加快推动“隐私计算”技术在AIGC领域的应用。

这类技术能够让多个数据拥有者在不暴露数据本身的前提下,通过共享SDK或者开放SDK权限的方式,在进行数据的共享、互通、计算、建模,在确保AIGC能够正常提供服务的同时,保证数据不泄露给其他参与方。

此外,全流程合规管理的重要性愈加凸显。

企业首先应关注其所运用的数据资源是否符合法律法规要求,其次要确保算法和模型运作的全流程合规,企业的创新研发还应最大限度地满足社会公众的伦理期待。

同时,企业应制定内部管理规范,设立相关的监督部门,对AI技术应用场景的各个环节进行数据监督,确保数据来源合法、处理合法、输出合法,从而保障自身的合规性。

AI应用的关键在于部署方式与成本间的考量,但必须注意的是,如果没有做好安全合规、隐私保护,对企业来说或将蕴含“更大风险点”。

AI是把双刃剑,用得好让企业如虎添翼;用不好疏忽了安全、隐私和合规,会给企业带来更大损失。

因此,在AI应用前,需要构筑更加稳固的“数据底座”,正所谓,行稳方能致远。