庆云古诗词

庆云古诗词

公众号部署chatgpt会封号吗 chatgpt接入公众平台会封号吗

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

公众号部署小程序,微信公众号部署,公众号发布app,公众号ugc

近日,掀起人工智能(AI)巨浪的ChatGPT在风光数月之后,开始遇到麻烦了。

上周,继上千名科技大佬联名要求暂停“GPT-5研究”后,意大利率先宣布封杀ChatGPT。此外,三星被曝因ChatGPT泄露芯片机密的消息更是加剧了有关生成式AI的担忧。

在全球“反AI”的声音响起之后,4月2日,一则有关ChatGPT封号的消息传遍了互联网。消息显示,OpenAI官方从3月30号开始大面积封号,禁止使用亚洲节点登录,有网友还曝出OpenAI已经暂停注册新账号。

图片来源:封面新闻

不过,4月3日,《每日经济新闻》记者访问OpenAI官网发现,账号注册界面已经开放,原有的账号能够成功登录,ChatGPT的响应也很快。有分析认为,此前出现封号可能是账号为批量注册、出现API滥用情况或访问量过大造成的技术问题所致。

尽管ChatGPT近期负面不断,A股相关概念股仍在持续走高。4月3日,ChatGPT概念股震荡走高,云从科技-UW(688327,股价56.8元,市值420.7亿元)大涨超20%,股价续创历史新高;奥飞娱乐(002292,股价6.96元,市值102.92亿元)涨停;科大讯飞(002230,股价69.3元,市值1609.9亿元)涨近9%,昆仑万维(300418,股价50.65元,市值601.83亿元)涨超8%。

ChatGPT“封号”始末

4月2日,一则有关ChatGPT封号的消息传遍了互联网。消息显示,OpenAI官方从3月30号开始大面积封号,禁止使用亚洲节点登录,还有网友曝出OpenAI已经暂停注册新账号。

当天,《每日经济新闻》记者注意到,在一些讨论群组中,也有用户反馈自己账号被封、且注册界面无法访问。

图片来源:微信截图

一些原本进行代充、卖号服务的商家也停止代充。

图片来源:微信截图

除了上述情况之外,有网友从3月30号晚上开始发现,付费Plus后会出现只扣款但订阅不开启的情况。另一些网友曝出自己的Plus账号突然失灵,甚至账单里都查不到记录。随着越来越多人表示自己的账户被封,在各大平台和群聊都有人奔走相告“注意事项”以防被封。

图片来源:微信截图

随着事情的发酵,有消息传,封禁账号的行为可能会影响到一些接入ChatGPT API的公司,例如汤姆猫。不过,据媒体4月3日报道,汤姆猫公司称ChatGPT关闭公司账户系不实消息,目前API接入正常。

4月3日,《每日经济新闻》记者再次访问OpenAI官网发现,账号注册界面已经重新开放,且原有的账号能够成功登录,ChatGPT的响应也很快。

图片来源:OpenAI官网

有部分网友猜测,OpenAI此次出现大规模封号的原因可能在于,一是许多账号是用程序批量注册的,一台机器用一个IP在短时间内注册了大量账号;二是出现API滥用的情况,例如,在不支持的地区使用了ChatGPT API,或者利用多个账号获取API并对外提供服务。另有分析称,也可能是由于访问量过大造成的技术问题所致,OpenAI此前曾出现过宕机问题。

每经记者也将这个问题抛给了ChatGPT,它的回答如下:

图片来源:OpenAI官网

ChatGPT麻烦不断各大巨头开始限制员工使用

除了上述封号风波之外,ChatGPT最近可谓麻烦不断。

在3月29日上千名科技大佬呼吁暂停训练比GPT-4更强大AI系统之后,意大利于3月31日率先封禁ChatGPT。

对此,OpenAI首席执行官Sam Altman在推特上表示,ChatGPT已经在意大利暂停服务,并表示意大利是他最喜欢的国家之一,期待很快再次去意大利。

图片来源:推特

值得注意的是,三星被曝因ChatGPT泄露芯片机密的消息更是让有关AI的担忧加剧。据韩国媒体3月30日报道,三星在3月11日引入ChatGPT,但在不到20天内已发生3起数据外泄事件,涉及半导体设备测量数据和产品良率等信息,2起与半导体设备相关,1起与会议内容相关。

据报道,在涉及半导体设备的数据泄露事件中,三星半导体事业暨装置解决方案部门的员工在操作半导体测试设备下载软件时发现问题,于是将有问题的代码复制到ChatGPT中寻找答案,从而使得ChatGPT 使用三星的机密信息作为训练语料。

另一涉及芯片良率的泄露事件也是员工寻求用ChatGPT来优化代码。第三起则是让ChatGPT记录会议内容,虽然不是技术机密,但也可能导致会议内容外泄。

为了避免这种情况再次发生,三星已经告知员工谨慎使用ChatGPT。

据报道,数据安全服务Cyberhaven检测到并阻止了其客户公司160万名员工中4.2%的人将数据输入ChatGPT的请求,因为存在泄露机密信息、客户数据、源代码或监管信息的风险。

此外,摩根大通也已经限制员工使用ChatGPT;亚马逊、微软和沃尔玛也已向员工发出警告,要求员工谨慎使用生成式 AI 服务。

本文综合来源自每日经济新闻等,版权归原作者所有,如有侵权,请联系删除。

本文编辑:石库门

防失联,请扫码关注小号

政经聚焦


openai发布多模态预训练大模型gpt-4 openai推出多模态大模型gpt-4

多模态代码,多模态 ai,多模态embedding,多模态cnn

最近,意大利宣布禁用 ChatGPT,因为 OpenAI 违反了意大利相关的隐私规则和数据保护法,出现了用户数据丢失情况,而且未向用户告知。

消息出来后,德国、法国、爱尔兰、西班牙等国的监管部门都表示正在密切关注 ChatGPT 的安全问题,特别是在保护未成年人、处理用户数据等方面。

一些监管机构建议,用户在与 ChatGPT 沟通时应该避免向其披露过多的个人信息,以免被用于训练模型。

另一方面,GPT-4 的进化速度让一些 AI 专家感到恐慌,有观点认为 OpenAI 需要对 GPT-4 做更多的安全限制,以避免出现滥用 AI 的不良事件。

对于这些外界关注的安全问题,OpenAI 在 4 月 6 日凌晨发表了一篇博客进行了回应。在这篇博客中,OpenAI 详细阐述了他们在安全工作付出的努力,并说明了后续在使用比 GPT-4 更大的模型(GPT-4.5 或 GPT-5?)方面的计划。

以下是 OpenAI 的博客原文。

OpenAI 致力于保障人工智能的安全和广泛受益。我们知道,我们的人工智能工具可以为人们带来很多好处。世界各地的用户告诉我们, ChatGPT 可以增加他们的生产力、增强创造力,并提供量身定制的学习体验。

同时,我们也认识到,像任何技术一样,这些工具也带来了真正的风险,因此我们致力于确保安全措施在我们的系统中得到充分应用。

建立日益安全的人工智能系统

在发布任何新系统之前,我们进行严格的测试并征求外部专家的反馈,努力通过强化学习和人类反馈等技术来改进模型的行为,以及构建广泛的安全和监控系统。

例如,在我们最新的模型 GPT-4 训练完成后,我们花费了超过 6 个月的时间,在全公司范围内共同努力,使其更加安全可靠,并在公开发布之前进行对齐。

我们认为,强大的人工智能系统应该接受严格的安全评估。需要进行监管,以确保采取这种实践,并与政府积极合作,以确定最佳的监管形式。

从实际应用中学习,以改进保障措施。我们努力预防部署前可预见的风险,但实验室只能了解有限的情况。尽管进行了广泛的研究和测试,但我们无法预测人们将如何使用我们的技术,也无法预测人们会如何滥用它。

这就是为什么我们认为从实际应用中学习是创造和发布日益安全的人工智能系统的关键组成部分。

我们谨慎地、有计划地向越来越广泛的人群发布新的人工智能系统,并采取大量的保障措施,基于我们所学到的经验不断改进。

我们通过我们自己的服务和 API 向开发者提供最强大的模型,以便他们可以将这种技术直接集成到他们的应用程序中。这使我们能够监控并采取行动来防止滥用,不断构建减轻措施,以应对人们滥用我们系统的实际情况,而不仅仅是关于滥用可能出现的理论。

实际使用也使我们制定了越来越细致的政策,以防止行为对人们产生真实风险,同时还允许我们的技术发挥许多有益的作用。

重要的是,我们认为,社会必须有时间更新和调整日益强大的人工智能,并且所有受到这种技术影响的人都应该有重大发言权,以决定人工智能的进一步发展。

迭代式部署使我们更有效地将各相关方引入关于采用人工智能技术的对话中。

保护儿童

我们安全措施的一个重点是保护儿童。我们要求使用我们的人工智能工具的人必须年满 18 岁或经过父母的同意并年满 13 岁。

我们不允许我们的技术用于生成令人憎恶、骚扰、暴力或成人内容等其他类别。我们最新的模型 GPT-4 比 GPT-3.5 对违规内容回应的概率降低了 82%。

我们已建立了一个强大的监测系统,以监测滥用情况。GPT-4 现已面向 ChatGPT Plus 订阅用户,我们希望将其逐步推广至更多人。

我们付出了巨大的努力,以最大限度地减少我们的模型产生对儿童有害内容的可能性。例如,当用户试图将儿童*材料上传到我们的图像工具时,我们会阻止并向「国家失踪和被剥削儿童中心」报告。

除了我们的默认安全防护措施外,我们还与开发商合作,如非营利性组织 Khan Academy,他们建立了一个 AI 助手,既是学生虚拟导师,又是教师课堂助手,为学生们量身定制了安全保护措施。

我们还致力于开发功能,允许开发者设置更严格的模型输出标准,更好地支持需要这种功能的开发者和用户。

尊重隐私

我们的大型语言模型是基于广泛的文本语料库进行训练的,其中包括公开可用的、有许可的内容和由人工评审员生成的内容。我们不使用数据出售我们的服务、广告或构建人的画像――我们使用数据使我们的模型更有用。

例如,ChatGPT 通过在人们与其交谈的对话中进一步训练来提高回答效果。

尽管我们的一些训练数据包含公开互联网上的个人信息,但我们希望我们的模型了解世界,而不是私人个体。

因此,我们努力从训练数据集中删除个人信息,逐步调整模型以拒绝私人个体的个人信息请求,响应个人要求从我们的系统中删除其个人信息。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的回复的可能性。

改善事实准确性

今天的大型语言模型工作的原理是基于它们「看到」的文本来预测下一组单词。在某些情况下,生成出来的单词可能不是事实准确的。

改善事实准确性是 OpenAI 和许多其他人工智能开发者的重点,我们在这方面已取得了初步的进展。

通过利用 ChatGPT 用户负反馈(被标记为不正确的输出内容)作为主要数据源,我们已经改善了 GPT-4 的事实准确性。GPT-4 比 GPT-3.5 更可能产生基于事实的准确内容。

在用户注册使用这项工具的时候,我们也告知快他们 ChatGPT 可能不总是准确的。

但是,我们认识到还有很多工作要做,以进一步降低 AI 幻觉的可能性,并尽力向公众科普目前这些人工智能工具的限制。

持续研究和合作

我们认为,解决人工智能安全问题的实际方法是投入更多的时间和资源研究有效的减缓和对齐技术,并在真实滥用案例中测试它们。

重要的是,我们也相信,改进人工智能的安全性和能力应该与更多人一起合作。

我们到目前为止做得最好的安全工作,是与我们最强大的模型(编者注:指内部目前比 GPT-4 更强大的模型)一起工作,因为它们更擅长遵循用户的指示并更容易被引导或「指导」。

我们将越来越谨慎地创建和部署更强大的模型,并将继续增强安全预防措施,随着我们的人工智能系统的不断发展。

虽然我们等了 6 个多月才部署 GPT-4,以更好地了解其能力、好处和风险,但有时需要花更长的时间来提高人工智能系统的安全性。

因此,决策者和人工智能提供商需要确保全球范围内有效地管理人工智能的开发和部署,以便没有人为了取得领先地位而走捷径。这是一个艰巨的挑战,需要技术和制度创新,但我们非常愿意为之贡献力量。

解决安全问题还需要社会广泛的辩论、实验和参与,包括对人工智能系统行为范围的讨论。我们已经并将继续促进利益相关者之间的合作和开放对话,创建一个安全的人工智能生态系统。