庆云古诗词

庆云古诗词

chat gpt异地登录会封号吗 chatgpt封号了可以登录吗

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


“不要登录ChatGPT!”

“暂时远离人工智能和ChatGPT概念板块高位股!”

就在这两天,一些关于ChatGPT的疾呼突然在各种社交平台和群聊刷屏了。

而看到这些消息的用户更是感到前所未有的惶恐。

因为导致这些声音出现的原因是――ChatGPT正在悄无声息地大规模封号。

很多人看到消息后尝试登录,就发现自己的号已经不在了。

想要重新注册一个?没戏,官方已经关停了注册通道,到今天上午都还没开启。

并且从3月31日开始封号到现在,OpenAI官方没有做出任何声明,具体原因不得而知。

加上最近还发生了意大利禁止使用ChatGPT、三星称因为ChatGPT泄密等事情,进一步引发了人们对于ChatGPT的担忧和疑虑。

因此各种猜测满天飞,ChatGPT概念股利空的消息也在周末刷屏。

有人为了避免被封号,开始使用各种歪点子,比如不用中文对话:

也有基金经理“绝望”表示现在跟不跟AI股下场都一样,这条票圈也在周末被疯转:

所以这到底是怎么一回事啊?

新号停止注册,Plus也不好使了

这一*规模封号大概从3月31日开始。

当时就有人发现OpenAI关闭了新用户注册渠道,用已有账号登录会看到提示:

注册暂时不可用,请稍后尝试。

但截至发稿前,注册通道仍旧没有被重启。

以及有人从30号晚上开始发现,付费Plus后会出现只扣款但订阅不开启的情况。

还有人的Plus本来是可以用的,却在这几天突然失灵,甚至账单里都查不到记录。

事件的进一步发酵从4月1日开始。

越来越多人表示自己的账户被封,各大平台、群聊都有人奔走相告“注意事项”以防被封。

甚至是疾呼:不要登录了!

而随着封号数量越来越多,人们发现封号似乎是无差别的,不管是充值了Plus,还是只调用API,都会有可能被封。

到目前为止OpenAI官方都没有做出说明,因此背后具体原因众说纷纭,目前主要有“批量注册”和“API调用被封”两种类型。

一方面,很多声音都认为,这次封号的重灾区,是之前批量注册的账户。

不少网友都表示自己手动注册的账号还在,但从一些渠道收入的就已经没了。

另一方面,关于API调用被封的情况,则有人猜测可能是之前的账户行为存在API滥用嫌疑。

比如一个人有多个账号获取API服务,如果被检测到在同一个IP或类似IP不停更换API发出请求,就违反了【【微信】】的使用规则。

以及4月1日是【【微信】】 Key免费调用额度到期的日子,有人觉得OpenAI是担心这几天会有大批账号付费买token,API会被薅秃,所以先封一批号……

这种猜测也不是没有根据,毕竟前有Midjourney叫停免费使用,一部分就是因为被薅得太狠了。

3月28日,Midjourney的创始人兼CEO表示,由于很多人为了避免付费,注册大量新账户只使用免费额度。这加剧了GPU临时性短缺的情况,导致付费用户的服务瘫痪。

当然,除了这些关于账号本身存在问题的原因推测以外,还有人从ChatGPT的用处切入展开分析:

ChatGPT会提升我们的生产力,所以dddd。

确实此前有人就表示自己账号被封后,工作效率大减。

而且最近已经有不少公司把ChatGPT引入工作流,不知这轮封号是否会造成影响。

加上韩国三星因员工将企业数据上传给ChatGPT一事、以及意大利封禁ChatGPT的消息传出,很多人预言这周一ChatGPT概念股要暴跌。

不过,和用户侧受到大范围影响不同,股市方面的表现和周末许多人的预测不太一样。

周一上午,ChatGPT板块领涨,多支股票涨幅超5%。

如何判断账号是否被封?

不过需要注意的是,还是有非常多人的账号没有受到影响,可以正常使用。

所以大家也不要过度恐慌,仔细分辨好自己的账户是不是还健在……

判断方法大概如下:

如果登录状态被封,如果出现“提示无法加载历史信息”或“输入框输入内容无法发送”,账号可能被封。

如果不是在登录状态下被封,就会在登录过程中报错:

账户停用。如果您需要帮助,请通过我们的帮助中心与我们联系。(错误=账户停用)

Account deactivated. 【【微信】】gh our help center 【【网址】】?if you need assistance. (error=account_deactivated)

其他情况报错,比如“not a【【微信】】……”等,则不一定是账户的问题。

那么账号一旦被封就毫无解决办法了吗?

也不是,报错中就写了,可以直接通过官网进行申诉。

甚至现在已经有人出了申诉的指导帖,表示在申诉中一定要用英文情真意切地表达出账号里的内容对你来说有多宝贵,还要说明自己没有做什么违规的事、之后也不会,希望给予解封。

具体详细内容还要看大家自己的发挥了……

总之这一回,恐怕很多人想要重启ChatGPT的大门,难上加难。

你的账号现在还好吗?

参考链接:

[1]https://mp.weixin.qq.com/【【微信】】_A

【【网址】】/archives/98095.html

[3]https://foofish.net/how-to-restore-chatgpt-account.html

责任编辑:落木


chatgpt 自然语言处理大结局 chatgpt可以写小程序代码吗

chatgpt,chatgpt是什么意思,chatgpt入口,chatgpt中文

原标题:ChatGPT国内小程序-自然语言处理的新里程碑

ChatGPT中文网是一个面向中国用户的聊天机器人网站,旨在为国内用户提供一个自然的环境、有趣、实用的聊天体验。它使用最新的自然语言处理技术来帮助用户更好地理解他们的聊天对话,还可以帮助用户解决日常生活中的问题,提供有趣的谈话内容以及实时信息服务。

任何 transformer 变体、任何数据集都通用。

在一块消费级 GPU 上只用一天时间训练,可以得到什么样的 BERT 模型?

最近一段时间,语言模型再次带火了 AI 领域。预训练语言模型的无监督训练属性使其可以在海量样本基础上进行训练,并获得大量语义语法知识,不论分类还是问答,似乎没有 AI 解决不了的问题。

然而,大模型既带来了技术突破,也对算力提出了无穷无尽的需求。

最近,来自马里兰大学的 Jonas Geiping、Tom Goldstein 讨论了所有关于扩大计算规模的研究,深入探讨了缩小计算规模的改进方向。他们的研究引发了机器学习社区的关注。

在新研究中,作者对于单块消费级 GPU(RTX 2080Ti)能训练出什么样的语言模型进行了讨论,并获得了令人兴奋的结果。让我们看看它是如何实现的:

模型规模的扩展

在自然语言处理(NLP)领域,基于 Transformer 架构的预训练模型已经成为主流,并带来诸多突破性进展。很大程度上,这些模型性能强大的原因是它们的规模很大。随着模型参数量和数据量的增长,模型的性能会不断提高。因此,NLP 领域内掀起了一场增大模型规模的竞赛。

然而,很少有研究人员或从业者认为他们有能力训练大型语言模型(LLM),通常只有行业内的科技巨头拥有训练 LLM 的资源。

为了扭转这一趋势,来自马里兰大学的研究者进行了一番探索。

论文《Cramming: Training a Language Model on a Single GPU in One Day》:文章来源地址【【网址】】/blog/378812.htmlwww.yii666.com

论文链接:【【网址】】/abs/2212.14034

这个问题对于大多数研究人员和从业者来说具有重要意义,因为这将成为模型训练成本的参考,并有望打破 LLM 训练成本超高的瓶颈。该研究的论文迅速在推特上引发关注和讨论。

IBM 的 NLP 研究专家 Leshem Choshen 在推特上评价道:「这篇论文总结了所有你能想到的大模型训练 trick。」

马里兰大学的研究者认为:如果按比例缩小的模型预训练是大型预训练的可行模拟,那么这将开启一系列目前难以实现的大规模模型的进一步学术研究。

此外,该研究尝试对过去几年 NLP 领域的整体进展进行基准测试,而不仅仅局限于模型规模的影响。

该研究创建了一项称为「Cramming」的挑战 ―― 在测试前一天学习整个语言模型。研究者首先分析了训练 pipeline 的方方面面,以了解哪些修改可以实际提高小规模模拟模型的性能。并且,该研究表明,即使在这种受限环境中,模型性能也严格遵循在大型计算环境中观察到的扩展定律。

虽然较小的模型架构可以加快梯度计算,但随着时间的推移,模型改进的总体速度几乎保持不变。该研究尝试利用扩展定律在不影响模型大小的情况下通过提高梯度计算的有效率获得性能提升。最后,该研究成功训练出性能可观的模型 ―― 在 GLUE 任务上接近甚至超过 BERT―― 而且训练成本很低。

来源于:ChatGPT国内小程序-自然语言处理的新里程碑