a 一百显卡的算力究竟有多少?算力?字面上的意思大家都懂,就是计算能力,用于衡量 gpu 在一段时间内能够处理多少计算的操作标准。浮点操作单位是 flops。 比如因为拿官网公布的 a 一百八十 g 的数据,左边这一列是计算精度,右边这一列是算力。 我们一般看半精度、单精度以及双精度,精度越高代表算的就越准,比方说半精度啊,大约会算到小数点,后面的三到四位数,单精度会算到七位,双精度算到十五位数。理解了计算精度啊,接下来我们看一下算力。 a 一百八十一的双进度算列是九点七 t flops。 前面我们说过, flops 是标准浮点操作单位,末尾的 s 就是秒的意思, t 代表着一万亿次九点七 t flops 意思就是每秒钟执行九点七万亿次的浮点运算。我们往下看, 会发现双进度后面还带着吞声扣,它的意思是 gpu 启用了吞声扣来加速计算,就好像我们平时计算用的口算或者心算,这样就太慢了。但是我们用上计算器之后啊,算的就非常快了,吞声扣就是类似这样计算器的东西。 看到这里,我想你大概已经理解算力的意思了。有的朋友可能会好奇,怎么样测出自己显卡的算力呢?关注我,下期测给你看。
粉丝9644获赞12.1万
他在打方向,哎,他现在在进行避让,因为这边已经拐过来一个戳他这个识别还是挺灵敏的, like a bowl stress, my best suit showing my pose。 卸妆掉, 太卷了,真的太卷了,如今的汽车产品实在是太太太太卷了,我太难了!现在想想啊,当年李成茹老师在大腕里那个经典台词,宽带啊,光缆啊,卫星啊,能给他接的全给他接上都上面有花园,里边有游泳池,老板里站一个英国管家,甭管 凡有事没事都得跟人家说,哎,还不要死,这简直是现在汽车行业的预言啊,什么堆料王,什么内卷王,风烟滚滚,豪强林立,歌剧一方。直到我看见了这台车,未来 et 七,我就觉得这个必须是堆料 王中王,都王中王了,到底有多堆呢?咱们一起来说道说道。目前啊,量产车中智能驾驶应件最高的产品了,四颗英美达欧润芯片,总算率高达了一千零一十六。 tops l 四级别的自动驾驶要求的算例呢,是两百套,给大家把两个数据对照一下啊,吉胡嗨版搭载的那个华为 mdc 八幺零的这个驾驶计算平台,它的算例是四百 tops, 还有特斯拉的 fsd 三点零的计算平台,它的算例 是一百四十四套。但是目前量产的汽车产品中,还没有能够实现 l 三级别自动驾驶的,当然这其中也包括未来 etc。 但是那不重要,王中王,先整上,梦想还是要有的,万一过两天他实现了呢?咱 aota 就起火了, 灯驾驶得视觉识别呀,先装个八百万像素高营摄像头,激光雷达、毫米波雷达这些传管器他不能少吧,三十个起 怎么也能应对这 l 四级别自动驾驶的硬件需要往小区里一停,那些个芯片算率低于二百的硬件只支持二点五级别的车主,邻居们都不好意思跟你打招呼,哈哈 哈哈。风阻系数零点二零八,看参数,也就是奔驰 eqs 的风阻系数零点二零,比他更低了, 前一百八十千瓦永磁电机和后三千千瓦感应电机,最大功率四百八十千瓦,峰值扭距八百五十牛米,这零百加速三点八秒,你说行不行?这也挺对的吧,什么空气悬挂, cdc 减震器,不燃包子刹车,低滚阻轮胎能装的?这都给他装上。 这轮胎啊,可以是普利斯通坦者 t 零零五专用的这种低滚补轮胎,或者呢,也可以选这个倍耐力的 tz 这种自修补轮胎。一起上车看一下 隐藏式的门把手,无边框的车门,还有这个双层夹胶玻璃。这内饰啊,人体看起来就一个字,贵!他是那种很高级的质感,在这个颜色搭配上呢,有一种那种北欧系配色的 感觉。这台车呢,应用了未来第二代数字座舱技术,搭载的是高通第三代的数字计算平台,配备了三块屏幕,包括这个十二点八寸的 amoled 的中控屏,十点二寸 的迷你 led 背光仪表盘,还有后面这个六点六三寸的后排多功能控制屏。此外啊,他还配置了前面这个八点八寸的大尺寸的显示画面和二十六万色的这个全彩显示系统,对不对? 你就说他对不对,除了那些核心部分之外啊,他还有这个可再生头目和七点一点四的这个杜比全景声的音响,全车啊二十三个扬声器,就是你在电影院里看到的那种效果和这个三七代的压力舒缓系统,根据厂商提供的使用执掌呢,目前版本的 nop 意志针对在封闭道路上的使用而设计,如果要想在开放道路上使用呢,还需要等待日后进行一个 ota 的更新才可以。 但是呢,我们在整个的试驾过程中发现啊,这 nop 也可以在开放道路上开启。为了找到这一套驾驶辅助系统目前的能力极限, 我们找到了一个模拟的开放道路进行了测试。下面啊,就让我们在确保安全的前提下,看看这套超强的驾驶辅助系统能够在路上帮助我什么。我们来试试这个自动驾驶啊,点方向盘上这个键开始拍了,已启动, 现在自动驾驶已经启动了,我现在手没有摸方向盘,脚也没有踩到踏板,但是为了安全原因啊,我还是要把我的脚放在这个刹车踏板上做背刹。然后由于咱们国内的这个法规限制啊,我必须要每隔一分钟用手 去触摸一下方向盘,对他会有这样提示,然后他这个是可以调节这个速度的,就通过方向盘上的这个按钮来调节我现在速度三十二是定速的,然后我现在来加 长按是加一,短按是加五,然后他这边是可以通过这个来调节的,然后我现在没有再给他这个力,他现在在这个弯道上面识别的也是挺不错的,准确的这个监测到旁边过的这个公交车,我现在在加速一下速度加五加到四十, 再快一点,我觉得有一点害怕,哈哈,之前只是小范围的试过自动驾驶,但是我完全没有说靠自动驾驶,从我们的拍摄地直接开回我们家,哎,他在打方向哎, 他现在在进行避让,因为这边已经拐过来一个车,他这个识别还是挺灵敏的,刚才也有感受到的他的这个刹车,然后前面要到红绿灯了,哎,他现在已经监测到开始慢慢的减速了,但他这个减速距离还是有一点长的, 慢慢的他停止了我的脚,没有做任何的操作,但是我觉得这个跟车距离好像有点长,这很容易被加三啊,如果车多的情况下,他这个里面也有这个车道偏离预警警示。哎,他现在自己开始加速, 把前面的车兵线有足够的速度的话,他也不会进行减速, 他这个识别还是可以的啊,他如果没有车道的话,他是会提醒我去接管方向盘的,我有点不是很敢开的。很快到了前面又要到红灯了,我们看他 和他的识别情况,很长的一段距离,他就开始慢慢的减速了。 这个识别还可以,未来的他的这个 et 七上的自动驾驶,我觉得完成度还比较 ok 的了,比之前我开过的一些其他的这种国产自主品牌的这个自动驾驶的完成度要高很多了,请控制方向。 看完这些呀,这已经不仅仅是在为未来买单了,也是为未来买单了,我真的很期待未来这些竞争对手们出的新产品,你们肯定得更堆才行啊。那得啥样啊? 贫穷已经限制了我的想象力。好,这期节目我们就到这里了,我是奈奈,我们下期再见。
算力是衡量显卡性能的一个重要指标,我在之前的视频已经聊过显卡的算力应该怎么看,那么今天就来测一下一百八十 g 的算力。测试结果放在结尾啊。首先用 miss go 来远程连接服务器来运行测试代码,这一段呢 就是测试 gp 矩阵乘法的性能,它会测试四种不同大小的方块矩阵,逆行之后等待一段时间就会出结果了。 可以看到他给出了半精度、单精度以及双精度的算力,我们只需要看最高的那个值就行了,就是这一列,半精度的算力是二百一十五, 单精度是一百零五,双精度是十六。他们都启用了 tensor core 来加速计算。如果跟英伟达功能给出的数据对比,我们会发现其实要比官网的低了不少。这是因为英伟达给出的是理论性能,就是在极限的情况下能达到的最高 高值,实践中一般是达不到的。至于单精度这一项,比官网高这么多,是因为官网的就这一项没开天使扣来加速,有点奇怪啊。接下来继续看一下后面的代码,他还有三个测试模型, word 和 gpt, 二是自然语言处理模型。 第五式,预期内语言模型项目太多,就不一一介绍。我把测试结果做成了一张表格,大家感兴趣可以截图保存一下。考虑到英伟达官网和识字的差异,大家在实际应用中更信赖哪种数据?
小心, 然后 g p u 我们再聊一下呢,具体的,呃,硬件方面,那 g p u 我们前面介绍呢,它是 graphing process union 啊,图形处理单元,它是一种呢,专门 用于处理图形还有视频游戏这种高性能计算的硬件设备。在 h p c 这种所谓的我们就用 h p c 来简称啊,一般大家夜间呢使习惯了就叫 h p c, 就是 hi performance computing 啊,那芯片的成本呢,高达了百分之五十一,按照咱们超散中心 gpu 的一个价值量呢,是占到了百分之八十啊,所以 gpu 的成本是特别高的,所以为什么就是咱们老美啊,就是一直要各种方法去限制你的这个 gpu 的 采购,高端的这个采购,新编采购以及呢去甚至限制直接就是怎么去生产这个 gpu 的一些高端设备啊,比如说像荷兰的啊,这个机子外光刻机 都是非常可以生产生产的非常高端的芯片的这样一个机器啊,那全球超散了 gpu 的市场呢,约为九十六亿美元啊,根据用途和性能, gpu 呢可以分为专业卡还有消费级的卡两种啊, 那么专业卡呢,适用于像工程呢,科学啊,也就是 hpc 里面会用到的,对吧,超算里面会用到的一些领域 的专用芯片。这个厂上呢,还主要就是国外的英伟达还有 a m d 啊,所以这个对于是对我们来说是一个卡脖子的地方,尤其是像我们就是英伟达里面呢 一些高端产品啊,像 a 一百是非常具有算力优势的啊, a 一百的产品哎,像 h 一百吧这样一些型号啊, a 一百 h 一百的这个英伟达的这个系列,他在算力的优势,嗯,相较于其他的硬件呢,还是有绝对的领先的这个优势的啊,绝对领先优势的, 那 gpu 的数量到底跟算力呢?是一个什么样的关系呢?什么样的关系呢?那么这里有张表,这个表呢,就是横坐标,代表的是 gpu 的一个数量 啊,那么纵坐标的话呢,就代表的是我们的 flops 这个单位啊,就是 p flops 就是千万亿次的计算的一个能力啊,这个能力,那么从这个当然它的型号呢,就是用到了 a 一百啊,就前面提到了 a 一百就在这个型号上, 那从数量上我们可以看到,就是当你的 gpu 越高的话,基本上性能肯定是一个线性增长的啊,这个线性增长从一百一百的话呢,可以支持到七点五个 p, 七点五个币, 然后之后呢再到一千一千的话呢,比例升到一百四十五啊,那么基本上这个增长呢是线性的,所以从呃, 所以从算力的角度呢,我们一定是要去用更多的这种 g p u 的芯片,那么才能带来算力的一个提升,所以这个是非常 呃耗资源的,对吧?他因为他不是说经过软件层面或者其他层面的优化,是可以把这个算力提升上来的,这个没办法啊,这是个硬指标,就必须要去嗯,使用大量的 gpu 来堆,才能把这个算力呢堆上来。但是从 整体的这个处理器在 top 五百的计算机中占比情况去看的话呢,大概现在的整体的规模就是,当然英伟达肯定是还是一个 嗯,主导,就之前来看啊,就英伟达还是主导的地位,但近年来看的话,就是 a m d 慢慢的追上来了啊,取代了英伟达,所以 m d 和英伟达的话是在 gpu 领域的两个,呃,他们两个呢,就是交替的去, 竞争是非常激烈的啊,就是基本上就轮流做第一把交椅啊,没点啊,所以之前呢,我们一直认为因为答案是 全球第一啊,但是现在 m d 呢,慢慢追上来了,追上来也慢慢的占据了这个主导地位,开始取代了英美达了。就在整个 top 五百的这个计算机里面,大概呢现在统计的数量 就是可能有一百多个啊,有一百多个采用了 a m d 的处理器,比如说像刚刚前面看到的一些超算,嗯,像这个第二名的第一名吧,这第一名的美国的这个超算, 那么在第一名呢,这个美国的超算里面呢,就是大量用到了啊,大量用到了,都是 m d 的,现在开始用到了 m d 的一个处理器了,嗯,当然呢,这个事情呢,也是,既然这这两个是卡脖子,那么老美呢,肯定不会放过这个机会,对,不能让我机会。像我们刚刚提到一些非常高端的 这个芯片, a 一百,还有 h 一百,还有 h, 包括 a m d 啊, m, 这是英伟达的 a m d 呢,也有非常高端的系列,比如说像 m 的幺二五零啊,这个系列的话是英伟达非常高端的系列,那么这两个这基本上这个芯片我们国内是买不 到的啊,这都是美国呢,就是已经明确针对这些高端的 gpu 呢,发出了这个限制啊,暂停向中国客户来销售,这是从去年吧,大概是去年九月份,这是美国啊发出了这个限制, 所以这些高端的芯片我们是真的是买不到的,然后还有国内的整个 gpu 产业链,就是你既然限制啊,既然限制的话呢,那么也就会刺激国内的一些产生啊,厂家来进行自主的一个研发,包括 前面从九月开始进行这个高端芯片的限制,那么在后面的十月呢,也是,甚至呢把这个限制做的非常细的力度啊,就是无所不用其极吧,可以说是对高端芯片的连接,就是把具体指标卡 到连接次数,还有每秒的浮点运算次数,把这些指标呢直接作为啊限制的一个标准。那么所以除了像英伟达,还有 amd 这些我们厂商会被限制,包括我们国内也慢慢的有些企业他的能力上来了,甚至也入围了啊,也光荣的入围了老美的这个禁令的 范围,比如说像海光,海光信息啊,海光信息的产品呢,也加入了限制的范围,加入限制范围, 因为他也达到了嗯,他限制的一个级别,说明这也是我们的骄傲,对吧?既然能够加入你的限制名单,就说明我们很厉害了啊,就是还是有很厉害的这个芯片企业。这里呢大概就列了一些标 常用常见的啊,像景加威啊,还有隆兴,中科,海光呢,是我们嗯,是做的比较好的啊,还有韩武纪 等等啊,这样一些厂商,那海光呢,它主要是一个什么产品呢?就是它有一个深海深山一号的 d c u 啊, d c u 呢,它其实属于这种所谓的 g p g p u 一种 g p g p u 啊,嗯, 它属于 gp gpu, 叫通用图形处理啊,通用处理系统,二零二一年呢,它是将这个产品实现了商业化的一个应用啊,主要是用于了人工智能的训练,所以像海光还有韩武 g 都是在 ai 层面的专供啊, ai 层面的一个训练的芯片啊,这个也是咱们目前呢就是急需的, 主要的还有军用的,他管不着军用,其实反而在需求上呢,在芯片的性能上要求没有那么没有达到那么高的一个级别啊,然后还有像龙兴中科,就是主要是这么 安全啊,还有金融方面的这种金融方面的啊,当然还有在不同的领域呢,都有设立的,像物理仿真这个领域的话呢,就是木西还有摩尔县城,包括其他的碧润科技啊,碧润科技还有心动科技等等, 那么这些呢,都是在物联网还有语言宇宙方面啊,都有涉略掉,那么长期来看的话呢,其实,嗯, 虽然美国啊将制裁的范围由我们这个应用,最开始只是限制应用嘛,后来他也反应过来了,要限制 啊,要限制芯片扩大到芯片,甚至能扩大到产品的一个层面了,甚至过产品层面,这也就意味着我们呃国内的整个的 gpu 的发展就是从产品从应用到芯片再到产品,已经 是超过了美国政府的预期,就是反面,说明呢,我们国内的自研的水平呢,是在提高的啊,是在提高的,所以像海光啊,像韩武纪啊这样一些企业也是在利用了这个契机呢,引来了高速的发展啊,所以现在我们也在加速这个国产化的一个替代嘛,对吧? 好,那么这是从 gpu 的一个角度啊,我们去理解目前呢产业的一个格局。
this system this system is kind of insane this is one dgx this is what a dgx looks like now remember just six years ago it was pretty heavy, but i was able to lift it, but you could lift it this dgx this dgx that dgx by the way was 170 teraflops if you're not familiar with the numbering system that's 0.17 pedal flops so this is 720 the first one i delivered to open ai was 0.17 you could round it up to 0.2 won't make any difference, but and by then was like wow you know 30 more teraflops and so this is now 7r and 20 pedal flops almost an exo flop for training and the world's first one exo flops machine in one rack just so you know there are only a couple two three xflops machines on the planet as we speak and so this is an xflops ai system in one single rack if you were to train a gpt model one point a trillion parameter model it took it took about apparently about you know three to five months or so with twenty five thousand amp years if we were to do it with hopper it would probably take something like eight thousand gpus and it would consume fifteen megawatts eight thousand gpus on 15 megawatts it would take nine days about three months if you were to use black well to do this it would only take two thousand gpus two thousand gpus same ninety days, but this is the amazing part only four megawatts of power so from 15 that's right。
算力的平静在哪里,机会就会在哪里。目前啊,所有的计算机采用的都是冯诺一曼的架构,这个架构的特点那就是数据存储和数据计算它是分开的,所以呢,算力就很容易被卡在数据传输,而不是真正的计算上。 算力呢,一共是分为四层的,每一层要解决的其实都是如何让数据连接更快的这个问题,那无论是 hbm 还是光模块,其实都是这个逻辑最底层。从 gpu 内部去看,最大的瓶颈啊,就是显存和计算单元之间的数据传输。 传统 gpu 呢,一般采用 gddr 内存,是平面封装的,数据的传输是供不上 gpu 的计算。所以呢,升级的方案就是 hbm 内存 h b m, 它是垂直封装的,可以用更大的代宽把数据给传到 g p u 中的计算单元里去,比如说 h b m 二代宽两百五十六 g b 每秒,是 g d d r 的十倍以上。那算例的第二层呢,就是 a 福气,每台福气啊,里面都有四个八个甚至更多的 gpu 来组成,那多个 gpu 之间啊,需要协同计算他们之间的数据传输速度呢,也就成了平静。那这方面呢,最先进的还就是英伟达, gpu 连接用的是他自己的 nv link 协议,五十 gb 每秒。华为呢,也有自己的 hcs 协议, 带宽呢,也不错,三十 gb 每秒,和英伟达啊,没有量级的差异,但是其他传统的服务器啊,只有采用 pcie 五的标准接口,每通道传输速度只有四 gb 每秒,还不到英伟达的十分之一。 第三层啊,就是数据中心的算例了,数据中心是由几百甚至上千台的 ai 服务器组成计算集群的,那服务器之间呢,也需要快速的数据连接吗?英伟达这方面就采用专专用的 infiniteband 网络, 而其他家呢,就会采用 oc 高速以太网网络。但是这两种啊,在物理层其实都是用光纤去连接的,都离不开光芒, 那无论是数据发送还是数据接收,无论是服务器端还是交换器端,都需要光模块。那光模块的技术啊,今年从四百 g 上升到八百 g, 那因为国内的厂商在光模块制造领域啊,占比是蛮高的,所以这块的业绩是能够真正落地的,因此呢,也是今年在算力领域被炒的最多的一个板块。 第四层最上面,那就是数据网络的算力了,很多不同地点甚至不同城市的数据中心呢,可以组成一张算力的网,那经过调度和统筹,终端用户啊,就能够自动用到最快而且最便宜的算。现在呢,算力网络的趋势是云边端,这种加工, 其实呢,也是要解决数据传输的问题,其中啊,最热门的就是边缘计算,边缘计算指的可不是你的手机和智能车,而是指云的边缘,也就是在传统的云计算中心之外,在更靠近终端的地方加出一层来,直接来计算,来节省数据传输的 成本和时间。因此呢,云的 ai 算力加边缘的 ai 算力,再加用户端的 ai 算力,这个是未来的大趋势。那今天咱们说的算力这四层啊,在阿牛赛道课里面讲过,顺着咱们说的底层逻辑,站在不同 的层去看,可能呢,能找到不同的机会关注我,带你看透底层逻辑!最后每天给大家更新孙悟空指数估值表,做定投的朋友可以收藏。
嗨,大家好,我是阿健,前几天呢,我在网上二手网站上去逛,刚好呢我猎奇发现了一张英伟达的 cmp 系列的显卡,这张显卡呢就是 cmp 系列的四零 h x, 刚好呢,我从网上花了一个高价钱把这张卡买回来了,买回来以后呢,我就想给大家做一个评测,这张四零 hx 呢,其实对应的呢是因为达到二零六零 s 这个显卡,这张四零 hx 的显存容量呢也是八 g 的, 而且更有意思的呢是我发现这张四零 hx 的显卡侧面的居然有两个输出接口,一个呢是 dvi 的接口,另外一个呢是 dp 的接口。等一下呢,我们会在实际的测试中 看一下这张 cmp 系列的显卡算力到底是多少,同时呢,我们来试一下这种烟胳膊显示输出接口性能的,他带一个显示接口到底是几个意思,他 到底能不能显示呢?我们下面就来进行测试。现在呢,我们在软件中检测一下这张 cmp 四零 hx 显卡的运算能力,经过多次超频呢,我们发现这张卡的算力呢约为四十三点三四兆软险的功耗在一百四十四瓦左右。 在输出接口方面呢,这张 cmp 四零 hx 显卡呢,虽然带有输出接口,但是呢他的输出功能却不能使用,这个呢,我们在测试中发现他的 dp 口和 dvi 接口呢都不能用。 刚刚呢,我们已经把这张英伟达的 cmp 系列的运算卡做了一个简单的测试,想必我们的观众呢对这个性能呢都有一定的了解, 但是呢,因为拿后面呢还会推出六零 h x、 九零 h x 这些专业的 cmp 系列,算你卡,我呢会在第一时间通过各种渠道拿到这些卡为大家做测试。关注我,我们下期视频再见!
现在不少黑心的矿主把不所算力的战斗卡当做所算力的普通二手卡来卖,朋友们可千万别踩雷了。今天教你一个简单的办法,判断显卡是否所算力。 虽然所算里有 lhr 的标志,但并不会在马甲上显示,此时你只需要下载一个 gpuz, 记住一定要最新版,然后在 dys id 中查看 id。 我们以三零六零的显卡为例目,所算例的开头一般为一零第一、二五零三,所算列的则是一零第一、二五零四,其他型号的参考也给你打出来,记得到货后下载一个 gpuz 检测一下哦!
就用目前国产算滤芯片性能前三强拿来跟英伟达上一代缩水版的算滤芯片 a 八百来比较,差距还是非常的巨大。 英伟达 a 八百在 inter 八模式下的浮点运算能力高达每秒一千二百四十八万亿次,同为七纳米制成下的含五 g 和华为海斯最顶级的算率芯片,预算能力只能达到英伟达 a 八百的一半都不到。 平头哥的芯片是十二纳米制成,存在工艺上的代差。尤其需要注意的是, a 八百是英伟达上一代算率芯片 a 一百的缩水版最新的 gh 二百超算芯片的参数我就不列了, 因为他的算率是上一代未缩水版的 a 一百芯片的两百多倍。中国二零二二年的算率需求在每秒两万亿亿次,浮点运算能力预计到二零二六年就会增长到十二万亿亿次。 现在美国还允许缩水版的上一代算铝芯片出口到中国,如果未来连这种芯片都要禁掉,国产算铝芯片的性能连这种过气产品的一半都不到,这就意味着全面的落后。
之前讲支架的那集,有同学说华为的车载支架芯片标注的是稠密算力,不能与英伟达的稀疏算力直接对比, 说悉数算力只是看着数值高,折算后呢,性能很低,根本不够用。这话就纯属胡说八道了啊。 英伟达的欧瑞 x 六十四 gd 单张算率为二百五十四 t, 确实是吸速算力焕然成稠密算力是多少呢?英伟达的 ppt 有写,吸速算力提供的是两倍的性能提升, 也就是说二百五十四 t 的系数算力换算成稠密算力为一百二十七 t。 所以常见的配置两张欧瑞的车型稠密算力只有二百五十四 t。 而配置四张的车型呢, 目前是两张启用,两张备用,还是二百五十四 t? 在二百五十四 t 表面上看确实比华为的 mdc 八幺零的四百 t 低了不少, 但英语大家说过哈, l 四支架是二零一七年三十 t 算力的,泽威尔就支持了二百五十四 t 算力,两张欧瑞 x 共一百二十八 gb 老 power ddr 五叉内存支持的是 l 五支架, lr 到 l 四那只是兼容 目前接近于 l 四的华为赛里斯问借 m 五和 mt 只有 m 九的一半两百 t 算力体验上我看也没人说有明显差别啊。英伟达自驾的车型多说也就接近 l 三, l 三八 t 算力就够用了, 目前暂时落后于华为是因为这些车企没有发挥出我大黄伟达的实力,所以不管是二百五十四 t 还是四百 t, 以目前自驾的训练程度,根本就用不上这么多。 所以英伟达自驾的车主完全不用担心车载芯片的算力不够用。英伟达二零一八年以后出的训练服务云服务器已经禁售四个月了,今年呢,大概率还会禁售二零一八年之前的老古董,到时候英伟达方案的车企真就是一张卡都没得买了。 训练服务器算力不足,支架系统升级就会越来越慢。云服务器算力不足,车卖的越多,每辆车所分得的云算力就越低。所以就买辆车,你还想用多久?二百五 四 t 的稠密算力足够挺到进报废汽车回收厂了,而那些四张卡的车型,将来四张卡可以全部启用,翻倍提升到五百零八 t 的算力,报废前连完全发挥的机会都没有呢。说英伟达自驾算力不够用, 你看他现在这个情况,有那么一丁点可能不够用吗?