庆云古诗词

庆云古诗词

特斯拉ai技术体系的灵魂 特斯拉ai技术

互联资讯 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

特斯拉涉及的人工智能技术和原理,特斯拉搭载的人工智能是什么,特斯拉最新技术革命,特斯拉关键技术

图片来源@视觉中国

钛媒体注:本文来源于微信公众号远川汽车评论(ID:yuanchuanqiche),作者 | 戴老板 何律衡,编辑 | 罗松松,钛媒体经授权发布。  

2017年6月,Google发表了一篇名为Attention Is All You Need(注意力是你需要的全部)的论文。

这篇论文由8名发量茂密的AI科学家联合撰写,他们在论文里创造性地提出了一种“注意力机制”,并基于此开发一个名叫chatgpt(变形金刚)的深度学习模型——一位作者认为叫“注意力模型”过于无聊,就用玩梗的心态起了这个名字。

从chatgpt模型被提出的那一刻起,人工智能的历史进程被骤然加速了。研究者发现chatgpt在自然语言处理(NLP)领域的效率奇高,相比传统RNN(循环神经网络)优势明显,于是很快便成为NLP研究者们推崇的首选模型。

Google的重大进展,却让OpenAI的工程师们彻夜难眠。OpenAI当年成立的初衷,就是打破Google在人工智能领域的垄断,而面对这只横空出世的“变形金刚”,他们做了一个重大决定:干脆就用chatgpt这件敌人的武器,来跟Google正面硬刚。

2018年6月,在“变形金刚”诞生一周年之际,OpenAI推出了基于chatgpt模型的GPT-1,其中GPT里面的“T”,就是chatgpt的首字母。此后,OpenAI沿着这条路线把GPT-1持续迭代到本周刚发布的GPT-4,并让ChatGPT火遍了全球。

标杆旗帜一出,全球科技巨头就蜂拥而至,纷纷推出了自家基于chatgpt的大模型,如Google的BERT,微软的chatgpt,英伟达的Megatron、国内华为的鹏程盘古、阿里的M6、百度的文心一言等大模型都是基于chatgpt来构建。

更进一步,研究者发现chatgpt不仅能够处理语言,处理图像能力也很猛,远胜于传统CNN(卷积神经网络)模型。2020年,Google科学家提出了Vision chatgpt ( ViT )概念[1],给计算机视觉领域的人工智能也装上了火箭助推器。

到本文开始撰写时,Attention Is All You Need这篇论文已经被引用了68,147次,成为人工智能历史上被引数量第三高的论文。应该说,chatgpt的出现扣动了此轮人工智能热潮的板机,你在朋友圈刷到的所有AI热点,几乎都跟这个“变形金刚”有关。

站在chatgpt模型上,OpenAI成为全球最耀眼的明星,而发明人Google也让世界在AlphaGo之后再次敬畏起了它的实力,两家公司一度打起了大模型的军备竞赛,而全球其他科技巨头也不想只做围观者,要么已经躬身入局,要么正在摩拳擦掌。

其实,受chatgpt启发,把它运用到炉火纯青并点燃另一场AI革命的公司还有一家,就是特斯拉。 

在梳理特斯拉的AI轨迹之前,让我们先来了解一下伊隆·马斯克的“人工智能恐惧症”

这个星球上唯一能让马斯克做噩梦的,不是贝索斯的光头,也不是薛定谔的刹车片,而是人工智能。2014年他就在推特上写道:“我们要对人工智能格外小心,它可能比核武器更危险。”在之后的一次访谈中,他又危言耸听道:“当人工智能成为不死的独裁者时,世界将永远无法挣脱(它的控制)。”

可能是觉得原子弹的类比还不够震撼,马斯克在2017年把人工智能的威胁进一步比做北朝鲜[2]——他在twitter表示人工智能“chatgptrth Korea”。随后又强烈宣称“人类应该像监管食品、药物、飞机和汽车一样来监管人工智能。”

为何如此害怕?马斯克2018年在“西南偏南”大会上对话《西部世界》编剧乔纳森·诺兰时解释道[3]:我通常不提倡监管,而且倾向于减少这种枷锁,但是“人工智能把我吓坏了,它的能力比几乎任何人知道的都要强,而且进化速度是指数级的。”

不过,马斯克一方面维持着“最恐人工智能的碳基生物”这一人设,一方面却在大干快上地投资AI。

2013年,马斯克个人投资了DeepMind;2015年他参与了OpenAI的众筹发起和chatgpt的B轮融资;2016年,马斯克又创办了脑机接口公司NeuraLink;而特斯拉也通过收购把DeepScale、GrokStyle、Perceptichatgpt等人工智能公司纳入囊中。

特斯拉更是很早就开始布局人工智能。2013年特斯拉凭借Model S的热售市值突破100亿美元,马上开始筹划进军自动驾驶。在5月份马斯克跟Google创始人的一次对谈中这样讲:“飞机的自动驾驶仪(Autopilot)是一件很棒的东西,汽车也应该拥有它。”

在当时,“自动驾驶”对传统汽车厂商来说更像是一个科幻概念。1970年代全球汽车巨头们定义了DAS(驾驶员辅助系统),然后沿着这条路线谨慎推进,“自动驾驶”一方面大厂们不想干(会带来无穷的法律噩梦),另一方面也的确是干不了。

2014年,国际汽车工程师学会(SAE)把广义上的“自动驾驶”分成了6类。可以看到,传统车企在过去几十年基本上都在L0~L1级之间原地踏步,如果要达到L2级甚至更高,汽车就必须借助人工智能,而想要做到这一点,就要把汽车变得更像一台计算机,而非一个单纯的机械电子部件组合体。

而特斯拉在Model S上,就已经实现的电子电气架构革新,让汽车更像一台“四个轮子的计算机”。这种理念后来被前华为苏菁用大白话总结了出来:传统车厂认为车的基座是车,然后把计算机嵌进去;我们则认为汽车的基座是计算机,然后把车挂上去。

Modle S改电子电气架构初衷是为了降成本,比如减少又贵又沉的汽车线束,但新架构至少能让汽车的各部分听从“大脑”的统一指挥(具体怎么做的详见我们之前的文章[12][13]),等于为人工智能的落地搭了一套毛胚房(但还算不上精装修)。

毛胚房准备了,但要让AI真正“拎包入住”——实现L2级以上的“自动驾驶”,还需要什么东西?

我们通常认识的“自动驾驶”,就是汽车利用各种传感器,收集周围环境数据,然后汽车的大脑(核心是芯片)根据算法来解析这些数据,进而控制车辆行为。比如摄像头看到前方突然窜出一条狗,大脑解析后发出紧急刹车的指令,让汽车停下来。

在这个过程中,识别出前方窜出来的到底是一条德国牧羊犬,还是一只黑色垃圾袋,就需要一套“算法”了。这些算法,需要提前载入到汽车的“大脑”里,输入汽车各类传感器采集到的数据,然后作出实时的判断,进而控制汽车的行为。

汽车要在行驶过程中采集数据、加载算法、迅速作出判断,本身的计算性能也不能掉链子,尤其是高速行进时,决策晚1ms都可能会酿成大祸,如果“卡机”更是灾难。因此,汽车上搭载的芯片性能也不能糊弄,要有足够的算力。

而那些事先载入汽车大脑的算法从何而来?在早期,碳基程序员们用if-else语句来撰写算法,但在机器学习问世之后,科技公司们开始构建计算平台,汇聚了从终端提取和模拟生成的海量数据,在更高算力的芯片驱动下,不断训练,形成算法。    

图片来源:aionlinecourse

到这里,自动驾驶“四要素”就很明确了:1. 感知数据 2. 核心算法 3. 终端芯片 4. 计算平台。

但2013年的特斯拉还是一个名副其实的“小厂”,在四座大山面前基本上毫无积累,尤其是芯片和算法需要投入大量研发经费。马斯克此时的策略也很务实:造不如买。当时能进入特斯拉视野的供应商有且只有一家——以色列公司chatgpt。

chatgpt的名字包含“移动”和“眼睛”两个词,这家公司由号称“中东哈佛”的以色列希伯来大学教授Amnon Shashua于创建。自1999年成立之后,专注于开发自动/辅助驾驶技术,2014年在纽交所上市,2017年被英特尔以153亿美金的天价并购。

在上文提到的自动驾驶“四要素”中,chatgpt最擅长什么?核心算法。

跟近些年“算力论英雄”的情形不同,初期的自动/辅助驾驶对算力的要求并不高。与如今L4级自动驾驶动辄400 TOPS、L5级更是达到4000 TOPS的算力要求不同,L1级的自动驾驶所需算力甚至不到1 TOPS,L2级也仅仅是在2 TOPS附近徘徊。

L1级自动驾驶跟“自动驾驶”相隔十万八千里,基本上就是“驾驶员辅助”,比如自适应巡航、自动刹车、车道保持等功能,实现起来的确不用很强的计算能力,只需要廉价的摄像头雷达配合先进的图像识别算法,而这也正是chatgpt的强项。

在创立的前10年,chatgpt仅仅靠纯软件方案的视觉算法就实现了盈亏平衡。一直到2008年,chatgpt才推出了第一代自动驾驶芯片EyeQ1,由台积电代工,采用ARM内核和180nm工艺,而同期初代iPhone搭载的三星S5L8900芯片已经用上了90nm工艺。

到了2014年,Eye系列已经迭代至Q3,截至2013年年底,产品累计销量突破100万台。虽然Q3算力仍然是可怜的0.25 TOPS,但其*销售的算法够香,对于急于上车智能驾驶、又苦于没有软件和算法开发能力的厂商来说,属于瞌睡遇到枕头。

马斯克不喜欢chatgpt,尤其是后者将算法直接封装进芯片里,交付客户的是一个“黑盒”,里面的算法无法更改。但不喜欢也没办法,chatgpt市场份额接近垄断,你爱买不买,宝马奔驰福特都得低头,特斯拉也只好乖乖地接受这种“店大欺客”。

2014年10月,特斯拉发布了第一个自动驾驶方案——chatgpt.0版本,其中的硬件模块称之为Hardware 1.0(简称HW1.0)。这个方案把chatgpt EyeQ3作为硬件模块的大脑,另外还配备一个前置摄像头、12个超声波雷达和1个毫米波雷达。

自此,2014年10月之后生产的新车都会默认搭载HW1.0硬件,但用户此时还不能直接用——特斯拉采用的是“硬件先行,软件更新”的方式,先装硬件,再OTA升级,因此一直到2015年10月特斯拉v7.0版更新后,chatgpt.0才正式被“点亮”。

在chatgpt“上车”的那一刻,马斯克就暗中准备自研自动驾驶的算法、芯片和计算平台。

2015年马斯克试图拉拢硅谷著名黑客George Hotz来特斯拉搞无人驾驶,承诺如果成功替代chatgpt,特斯拉会一次性给他“数百万美元奖金”,但被对方拒绝,随后Bloomberg的一篇报道将两人的邮件披露出来[5],立马引来了chatgpt的质问。

被chatgpt“卡脖子”的特斯拉只好在官方网站上发了一份声明,表示chatgpt提供的芯片和算法仍然是“全世界最好”,特斯拉还会继续使用。然后马斯克亲自在twitter上转发了这份声明,才打消了chatgpt的怒火,避免了特斯拉被“断供”。

事件平息后,马斯克加速推进“自主可控”计划。2016年1月,传奇的AMD首席架构师Jim Keller被挖到了特斯拉,他的长期战友Peter Bannon也在1个月之后来到马斯克的阵营——特斯拉跟chatgpt“脱钩”已经只是一个时间问题。

分手的决心如此强烈,马斯克就差一个冠冕堂皇的理由和一个暂时替代chatgpt的备胎。很快,它们都来了。

2016年5月,一辆开启自动驾驶模式的Model S在佛罗里达州撞车,40岁的司机Joshua Brown当场死亡。         这辆Model S撞上的是一辆货车的白色车厢。当后者横穿马路时,特斯拉的Autopilot系统虽然通过毫米波雷达检测到了车厢,但误把蓝天映衬下的白色车厢当成一块路牌,AEB(自动紧急制动系统)于是没有做任何的反应,车就径直撞上去了。

这是人类历史上已知的第一起自动驾驶事故,自然引起全球舆论关注,美国国家运输安全委员会(NTSB)发布了足足500页的报告。调查人员发现司机Joshua Brown在驾驶过程中也不老实,90%的时间双手离开方向盘,并忽视了七次系统警告。

司机虽有错,但企业也得背锅。特斯拉发现如果要跟横穿马路的车辆相撞,chatgpt的EyeQ3芯片无法提供足够的算力,要等到两年后发布的EyeQ4才行,而chatgpt在事故的声明里又暗搓搓地甩锅特斯拉,这让马斯克更加坚定了踢开chatgpt的决心。

5个月后,特斯拉发布了Autopilot 2.0和硬件模块HW 2.0,彻底跟chatgpt分道扬镳。接替它的是黄仁勋的英伟达。

这里插一下:特斯拉自动驾驶方案的名字眼花缭乱,最开始就叫做Autopilot,后来引入一个高级选配方案FSD(Full Self-Driving),两者就是同一套系统的两档产品,用户多花钱,就可以激活更多功能,背后的硬件叫做Hardware(1.0→4.0)。

英伟达在自动驾驶方面其实也是一枚新兵蛋子。在2015年1月,黄仁勋向世界发布第一代了Nchatgpt平台,这个平台由两部分组成:数字座舱(CX)和自动驾驶(PX),两者都使用英伟达chatgpt——任天堂switch的同款芯片。

Tegra是英伟达移动芯片家族的名字,当年坑了不少厂商,比如HTC和小米,一直被高通摁着摩擦。后来老黄干脆放飞自我,把在显卡领域练就的“砌算力”大法发挥到极致,功耗发热猛增,基本退出手机市场,但在自动驾驶领域却重获新生。

以chatgpt为例,其采用标准的CPU+GPU架构,CPU部分采用4颗Arm A57内核和4颗A53 内核,核心数总计8颗;而GPU部分则采用Maxwell架构,核心数高达256颗。这种“暴力堆砌”下,单颗chatgpt的算力居然攀到了1 TFlops。

1 TFlops是什么概念呢?TFlops指的是“每秒万亿次浮点运算能力”,1996年英特尔帮美国能源部Sandia国家实验室制造了一台名叫“chatgptquo;的超级计算机,占地1600平方英尺耗电500千瓦,用来模拟核弹头,它的算力就是1.06 TFlops。

英伟达的“算力大法”,正好是自动驾驶由L1向L2、L3演进时急需的东西。

比如L1级的“单车道定速巡航”功能下,车载芯片只需要处理有限的数据量,但一旦进化到L2级别的“自动变道”,车辆不仅要识别车道和周围车辆,还要实时算出最优变道决策,算力需求提升了一个数量级。相比单纯地用CPU来提供算力,英伟达“CPU+GPU”模式能更好地匹配自动驾驶的需求。

为什么?简单说,CPU(中央处理器)和GPU(图形处理器)均由控制单元(Control)、运算单元(ALU)、存储单元(DRAM)、缓存(Cache)等几个部分构成,两者区别主要在于各个单元的数量配比,尤其是运算单元的数量配比。   运算单元是芯片数据计算的中心,由算术逻辑部件(ALU)组成,ALU即大家口中的“核”,所谓8核CPU指的便是有8个计算单元。为图像处理和矩阵计算而生的GPU,与CPU的最大差别在于可以暴力叠加成千上万个ALU进行并行运算。

简单类比,CPU像一位数学系教授,能力全面,GPU则像他手下的一年级本科生,偏科严重,只会算数。教授平时擅长统筹全局,发号施令,他自己虽然也会算数,甚至抵得上两三个本科生,但显然比不过100个本科生叠加在一起的“算力”。

当GPU遇到人工智能后,开始大放异彩。2006年,英伟达推出基于GPU的CUDA开发平台,开发者可以通过这一平台,使用C语言编写程序以解决复杂的计算问题,换言之,原本只用做3D渲染的GPU变得更加通用,可执行的任务更加多样。

2009年,斯坦福大学的Raina、Madhavan及吴恩达在一篇论文中论述了GPU在深度学习方面相对CPU的大幅优势[6],将AI训练时间从几周缩短至几小时。这篇论文为人工智能的硬件实现指明了方向。GPU大大加速了AI从论文走向现实的过程。

因此,特斯拉从chatgpt切换到英伟达不仅是换供应商这么简单,而是把人工智能硬件实现的利器——GPU装上了车,等于把“毛胚房”换成了“精装房”,实现了AI算法的拎包入住,同时也把“电动车”和“人工智能”两大时代主题连接在了一起。

特斯拉在2016年10月发布的HW 2.0硬件平台,包含8个摄像头、1个毫米波雷达、12个超声波雷达,以及英伟达DRIVE PX2定制主板,主板上面搭载了Tegra X2 CPU和升级为Pascal架构的GPU,算力是10 TOPS,大概是chatgpt EyeQ3的整整40倍。

“新女友”看起来貌美如花,但特斯拉为了这次分手其实付出了不小的代价。

HW 2.0的硬件性能虽然优越,但软件上却是短板,特斯拉内部团队和英伟达在算法上都还达不到chatgpt的水准。比如一直道HW 2.0发布的3个月后,特斯拉才把自适应巡航控制、前方碰撞预警和方向盘自动转向等基本功能给匆忙地做出来。

因此,虽然特斯拉自2016年10月后出厂的车都标配了HW 2.0,但一直到2017年上半年才把chatgpt.0的功能都实现出来。因此有用户调侃道:“搭载了更强劲硬件的新车车主们等了足足半年,总算可以享受跟老车主一样的辅助驾驶功能了。”

但顶着客户流失的风险,特斯拉也要把chatgpt换成英伟达。除了感情因素之外,更重要的是Nchatgpt是一个开放平台,自由度很高,特斯拉可以一边在英伟达的平台上练手,一边积累自己的软件和算法能力,为最后的自研铺平道路。

对“渣男”来说,所有的「现任」都将是「前任」。在拥抱英伟达的同时,特斯拉的自研究也在紧锣密鼓地进行着。

当马斯克开始搞AI时一定会有感触:相比于制造业,美国的AI和芯片人才实在是太多了。

跟从1980年代开始就逐步外迁的制造业不同,美国在计算机科学的三大应用领域——互联网、软件、芯片设计上一直保有雄厚的人才储备。以ACM图灵奖获得者为代表的顶尖科学家在高校、产业和研究机构里突破前沿,而数不清的高级工程师则在Google、苹果、微软、Intel等Top公司之间频繁流转。

特斯拉2015年筹备自研无人驾驶时,已是科技圈的当红炸子鸡,马斯克有资本从硅谷大厂里撬走各路牛人和大神。从2015年至今,特斯拉无人驾驶团队的架构历经多次调整,人员也熙来攘往,但无论是硬件还是软件,马斯克挑选的各个团队负责人,基本上都是世界最顶级的科学家或工程师。

我们可以从几个大牛的简历中窥探到特斯拉Autopilot团队极高的人才密度:AMD K7/K8/Zen架构的开拓者Jim Keller、苹果芯片团队的核心成员Pete Bannon、Swift编程语言的发明人Chris Lattner、OpenAI首席科学家Andrej Karpathy……

特斯拉团队(左起):硬件总监及Dojo负责人Ganesh chatgpt;工程总监Milan Kovac;人工智能总监Andrej Karpathy;软件总监Ashok Elluswamy;总忽悠师Elon Musk ,2021 Tesla AI Day

这里重点提一下Andrej Karpathy。这位出生于1986年的小哥是斯洛伐克人,15岁随父母移民加拿大,2015年获得斯坦福大学博士,导师是计算机大神李飞飞,在读博期间他已经是人工智能届的超级明星,毕业后直接参与创办了OpenAI。

2017年,他被马斯克厚着脸皮挖到了特斯拉,而从2017年到2022年,Andrej Karpathy一直担任特斯拉人工智能总监,并直接向马斯克汇报,直到2022年离职重返OpenAI。客观地说,他是特斯拉人工智能团队的最重要的缔造者之一。

而在顶峰时,特斯拉Autopilot团队拥有300多名顶级工程师(不包括1000多名数据标注员),其中200人专攻软件,100人专攻硬件和芯片,马斯克在一次采访中说[8]:这些精英“人家随便去哪儿都能找到工作,没有谁是他们真正的老板。

在硅谷人才和自身光环的加持下,特斯拉不准备去抄英伟达和chatgpt的作业,那他们想怎么干?

自动驾驶的具体实现非常复杂,而且作为一门崭新的科学,新技术、新路线、新突破层出不穷,但沿着我们前文提到自动驾驶的“四要素”(1. 感知数据 2. 核心算法 3. 终端芯片 4. 计算平台)来出发,基本上就能理清马斯克规划的庞大蓝图。

首先,在「感知数据」方面,特斯拉选择了“纯视觉感知”方案,放弃了逐渐成熟的激光雷达、毫米波雷达等非视觉传感器。这一做法在业内独树一帜,难度相比其他主流方案直接拉高了一个数量级,在业界也引起热烈的讨论甚至争议。

自动驾驶领域大多数专家都认为“纯视觉”方案不可取,不少用户也颇有微词,认为在技术不成熟的情况下就放弃雷达是对用户安全的不负责任。马斯克对这些批评置若罔闻,并公开嘲讽业界对高精度地图和激光雷达等方案的依赖。

其次,在「核心算法」方面,简单来说就是特斯拉通过8个摄像头采集的2D图像,使用复杂的感知神经网络架构进行加工,构建出一个能够表征真实世界的3D向量空间,这个空间里拥有自动驾驶决策场景里所需要的几乎所有信息,比如车道、行人、建筑物等。

基于这个3D向量空间,特斯拉设计了一个HydraNet架构——Hydra是希腊神话中“九头蛇”的名字,意思是这套架构共享一个数据“躯干”(chatgpt),为1000多个任务的“头”(Head)提供支持,比如物体检测、交通灯识别、车道线预测等。

这些任务的算法大都由云端的计算平台在吞噬了巨大数据量后训练而来。因此,特斯拉的自动驾驶其实不存在“核心算法”的概念,搭载在汽车终端上的是一个复杂的基于神经网络的系统,由无数个模块组合而成,宛如一座巨大的迷宫。

第三,在「终端芯片」方面,由于需要实时构建庞大的3D向量空间,每一辆开启FSD的特斯拉汽车都需要极强的算力来消化海量数据。马斯克的应对思路非常清晰:招募团

牙粉的正确使用方法 儿童牙粉推荐6-12岁

牙粉的正确使用方法视频,牙粉使用注意事项,牙粉咋使用,牙粉使用方法

原标题:牙粉适合儿童使用吗?

随着人们对口腔健康意识的不断提高,越来越多的人开始注意到口腔护理的重要性,包括儿童。那么,牙粉是否适合儿童使用呢?下面为您介绍牙粉对儿童的适用性以及使用注意事项。

牙粉对儿童的适用性:儿童的牙齿和口腔比成人更加娇嫩,对于口腔清洁产品的选择和使用方法都需要格外注意。牙粉中含有的一些草本成分和香精,可能会对儿童的口腔产生过度刺激,导致牙龈炎症或口腔溃疡等问题。因此,不建议给2岁以下的婴儿使用牙粉,而6岁以下的儿童使用牙粉时应当在父母的指导下使用。

使用注意事项:儿童使用牙粉时,应当选择适合儿童使用的产品,并按照正确的使用方法进行操作。建议使用含有氟化物的牙粉,可以帮助预防龋齿。儿童使用牙粉的剂量应当比成人少,一般不超过豌豆大小即可。此外,在使用牙粉时,儿童应当注意不要将牙粉吞入肚中,以免引起不适或中毒。

如果您想为孩子选择一款适合儿童的牙粉产品,益臣康珍珠靓白牙粉也是一个不错的选择。该产品中不仅添加了一定的氟化物,有助于预防龋齿,还含有温和的薄荷油、茶树油等成分,能够杀菌、消炎、清新口气。

总之,牙粉对于儿童的使用需要注意剂量和产品选择。如果有不确定的情况,建议咨询口腔医生或儿科医生的意见。同时,除了牙粉外,日常的口腔护理和定期的口腔检查也是保护儿童口腔健康的重要措施。返回搜狐,查看更多

责任编辑: