庆云古诗词

庆云古诗词

GPT-4“王炸”发布:专业和学术水平接近人类 做个网站只用了1秒

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

GPT4王炸发布,gpt4王炸发布 学术,gpt46,gpt42

  ChatGPT热度还未散去,ChatGPT开发商OpenAI发布了更强大的GPT-4,堪称“王炸”产品。

  当地时间3月14日,OpenAI公开发布大型多模态模型GPT-4,与ChatGPT所用的模型相比,GPT-4不仅能够处理图像内容,且回复的准确性有所提高。目前GPT-4没有免费版本,仅向ChatGPT Plus的付费订阅用户及企业和开发者开放。

来源:OpenAI官网

  “这是OpenAI努力扩展深度学习的最新里程碑。”OpenAI介绍,GPT-4在专业和学术方面表现出近似于人类的水平。例如,它在模拟律师考试中的得分能够排进前10%左右,相比之下,GPT-3.5的得分只能排在倒数10%左右。

  与此前的GPT系列模型相比,GPT-4最大的突破之一是在文本之外还能够处理图像内容。OpenAI表示,用户同时输入文本和图像的情况下,它能够生成自然语言和代码等文本。

  目前图像处理功能还未公开,不过该公司在官网上展示了一系列案例。例如,输入如下图片并询问“这张图片有什么不寻常之处”,GPT-4可作出回答“这张照片的不同寻常之处在于,一名男子正在行驶中的出租车车顶上,使用熨衣板熨烫衣服。”

来源:OpenAI官网

  在官方演示中,GPT-4几乎就只花了1-2秒的时间,识别了手绘网站图片,并根据要求实时生成了网页代码制作出了几乎与手绘版一样的网站。

  除了普通图片,GPT-4还能处理更复杂的图像信息,包括表格、考试题目截图、论文截图、漫画等,例如根据专业论文直接给出论文摘要和要点。

GPT-4可对论文进行解读,来源:OpenAI官网

  与此前的模型相比,GPT-4的准确性有所提高。OpenAI称,该公司花费6个月的时间,利用对抗性测试程序和ChatGPT的经验教训迭代调整GPT-4,从而在真实性、可操纵性和拒绝超出设定范围方面取得了有史以来最好的结果,“至少对我们而言,GPT-4训练运行前所未有地稳定,成为首个能够提前准确预测其训练性能的大型模型。”

  OpenAI称,在公司内部的对抗性真实性评估中,GPT-4的得分比最新的GPT-3.5高40%,相应的“不允许内容请求的倾向”降低了 82%,根据政策响应敏感请求(如医疗建议和自我伤害)的频率提高了29%。

  不仅是英语,该模型在多种语言方面均表现出优越性。OpenAI称,在测试的26种语言中,GPT-4在24种语言方面的表现均优于GPT-3.5等其他大语言模型的英语语言性能。其中GPT-4的中文能够达到80.1%的准确性,而GPT-3.5的英文准确性仅为70.1%,GPT-4英文准确性提高到了85.5%。

来源:OpenAI官网

  不过, 与早期的GPT模型一样,GPT-4仍然存在一定的局限性。

  OpenAI称,它并不完全可靠,可能会出现推理错误 ,“GPT-4缺乏对绝大多数数据切断后(2021年9月)发生的事件的了解,并且无法从中吸取经验教训……它有时会出现简单的推理错误,它会轻信用户明显的虚假陈述,有时它会像人类一样在难题上失败,例如在它生成的代码中引入安全漏洞。”

  基于此,OpenAI提醒,用户在使用语言模型时应格外小心,最好辅助以人工审查、附加上下文、或完全避免在高风险情况下使用它。

  值得注意的是,GPT-4虽然于14日才正式公开,但早在一个月前,微软的新版搜索引擎必应(Bing)就已经在GPT-4 上运行。微软表示,“如果您在过去五周内的任何时间使用过新版必应,那么您已经体验过GPT-4的早期版本。”

  与免费的ChatGPT不同,GPT-4目前仅向ChatGPT Plus的付费用户开放,它也将作为API(应用程序编程接口)提供给企业及开发者,开发者需进入等候名单上,将该模型集成到他们的应用程序中。

  OpenAI表示,已经有多家公司将GPT-4搭载到他们的产品中,包括语言学习工具软件多邻国(Duolingo)、移动支付公司Stripe和可汗学院(Khan Academy)。

  更强更可靠!OpenAI公布GPT-4:可在考试中超过90%的人类

  GPT-4来了!支持以图生文 OpenAI付款系统被挤爆 首批用户连夜写测评

  ChatGPT进化到GPT-4!一文解读OpenAI模型的应用场景和商业模式

  未来已来?GPT-4刚上线就引发马斯克恐慌 一文梳理其与3.5版本区别

  ChatGPT成“西南偏南”热议话题 OpenAI联合创始人:未来AI更像一个全天候助手 将首先替代基于认知的工作

(文章来源:澎湃新闻)

(原标题:GPT-4“王炸”发布:专业和学术水平接近人类,做个网站只用了1秒)

(责任编辑:6)


gpt-4 模型 开源吗 最强语言模型gpt-4发布在即


纯文本/纯图片的是不是可以被多模态取代?

GPT-4发布ChatGPT大升级 考试中击败90%的人类

OpenAi现在有点牙膏厂的意思了。

这次GPT-4发布可谓万众瞩目,最重要的升级就是多模态,也就是不止支持文本,还支持图片了。

前面ChatGPT很强大,但是有个明显的短板,就是只支持文本,半点图片都不能沾。结果表现越好,能力越强,短板越明显,对强迫症特别不友好。

前面对于GPT-4到底要升级什么,我猜得到,相信很多人猜得到,微软也提前剧透了,就是多模态。所以,这次万众瞩目的GPT-4点出了多模态的科技树,可谓众望所归。

不过,今天真的试了试,心情却很复杂,先不说这平均每小时25次的限制符不符合尊贵的Plus会员,但至少有一点,这次GPT-4的多模态我觉得只能叫半双工的多模态。

半双工是信息通信里面的词。什么叫半双工?通信都是一边收一边发的,半双工有个限制,要么只能收,要么只能发。最典型的就是对讲机,别看电影玩得挺溜,初上手都觉得挺别扭。没有限制的叫全双工。

这次GPT-4的多模态就搞了个半双工,只能收不能发,效果就是给出一张图片,GPT-4生成一段文字。这种图-文多模态过去也有许多,不过基本都停留在图上有只鸟,有辆车,有个熊孩子在打猫之类的看图写话水平

但是GPT-4不一样,不是用更精致的文字语言来描述图上有什么东西,而是用了更GPT的方式。由于尊贵的Plus会员也没法发图,多模态效果只能看官方演示。有两个我印象很深,一个是根据一幅潦草的手绘来编写前端代码,制作一个布局类似的网页,另一个根据一张照片,照片上有鸡蛋和一些食物原材料,生成一份这些食材能做什么菜的菜谱。

没啥好说,这才是用GPT搞多模态该有的样子。

但是,问题还是很突出,那就是半双工。GPT-4仍然只能生成文字,不能生成图片,图文并茂的回复仍然只能在梦里。两个字,别扭。

是OpenAi能力不足吗?不可能。就算OpenAi赶工期来不及,直接后端接一个文-图生成模型总行了吧。这波Ai绘画据说都快把画师赶尽杀绝,用的就是文-图生成。始作俑者是谁?DALL-E 2模型,OpenAi家的另一位当家花旦。

没错,最早用文-图生成带出这波Ai绘画风潮的正是OpenAi,各位画师,别砸错别家店了。

是OpenAi觉得图片生成不重要吗?不可能。都说了DALL-E 2是OpenAi的当家花旦,而且点出了图片生成技能,可就不止文-图这么简单,还有图-图这种形式。CV的玩法很多,譬如什么语义分割,风格变化,不过说到底都可归结为图-图形式,图片生成一打通,想象空间和野心就能马上广阔起来

是找不到训练语料吗?更不可能。C站就有成吨的现成语料,而且图片和提示文本已经一一对应,是爬是买多的是办法。就算看不起C站,前面就有训练CLIP时整理好了的高质量数据集,用GPT-4的图-文能力随便努一把力,想不到办法肯定要比想到办法还困难

那为什么非得留个尾巴?不知道。

GPT-4这次公布技术资料动作很快,比起还在天国的ChatGPT论文,这次GPT-4的产品和论文是同步发布,当然,严格来说不叫论文,叫技术报告(Technical Report),说明OpenAi早有准备,而且图文并茂写了98页,粗看好像十分厉害。

仔细一看发现确实厉害,洋洋洒洒98页,关键信息是半点没有,用了多大的模型?不知道。用了多大的数据?不知道。用了多大的算力?不知道。98页,一问三不知,厉害厉害。

没有资料,下面就全是瞎猜了。为什么OpenAi要留给尾巴呢?我的观点前面就说了,三个字挤牙膏。GPT-4出来,ChatGPT就成了牛夫人,可是Google还跟在牛夫人后面边跑边喘呢,第二梯队更是连牛夫人的车尾灯都看不到,急啥,挤牙膏。

挤牙膏还有两个好处。一个给竞品留点门槛。这几天除了GPT-4,其它大模型也是风起云涌,斯坦福基于LLaMA搞出来的Alpaca,据说已经可以GPT-3.5五五开,而且关键是,这玩意要求低,才600美元就能训练,买不了吃亏买不了上当。

大模型最重要的门槛就是重氪,斯坦福这是用了什么理财黑科技么?还真是,用了GPT-3.5生成语料,最后反过来还要干掉GPT-3.5,这叫什么?这叫草船借箭,岂不妙哉。

在干这事不止斯坦福一家,还有好几篇用ChatGPT做数据增强都发了论文,大家都在琢磨怎样用OpenAi的氪金成果来跨过氪金门槛,只有OpenAi受伤的世界眼看就要形成了,OpenAi肯定得想点办法。想什么办法呢?文本生成已经无法可想了,那就想想图片生成吧。

第二是给留点想象空间。之前我说NLP已经不存在了,现在GPT-4出来,又有人说CV也不存在了。哪这么容易不存在,前面说了,很多CV任务可以归结为图-图,GPT怎么说也是NLP出身,估计也就做做分类还行,不可能马上就能在主流任务上制霸,急着放出来表现不好,还不如先扣着给大家留个念想。

最后猜一下GPT的下一步吧,其实也没啥好说的,就是图片生成,OpenAi说了要搞AGI,具体来说就是用大模型搞全任务制霸,现在江山打下一半,就差文-图和图-图,也就是剩下图片生成。我是不信OpenAi自己内部没有强迫症,把另一半也给占过来。