粉丝9417获赞1.9万
就在刚才,老黄发布了这个世界上最快的 ai 计算卡 gb 两百,就当其他厂商还在挤牙膏的时候,因为达用实际行动告诉了大家什么才叫做升级迭代。相较于上一代的 gh 两百, gb 两百的 gpu 部分采用了英伟达全新设计的 blackwell 架构,在不同的精度下, gb 两百相对于 gh 两百就是两点五倍到五倍的性能提升。 同样训练一千七百五十亿参数的 gp, 三点零的情况下, gp 两百的训练速度比使用 h 一百芯片要快上四倍,想要更快就要更大,这就是老黄给出的解题思路。相较于使用五纳米之前的 oppo, 升级到四纳米后的 blackwell, 晶体管数量多了两百亿个,整体数量冲到了一千零四十亿。 不过这还不是完全体,为了给 ai 加速,老黄把两块 blackpoint 架过的芯片拼到了一起,才组成了我们现在看到的这块巨大的芯片。这样一来,一块完整的 blackout gpu 芯片的晶体管数量达到了恐怖的两千零八十一个。两块芯片之间采用最 最新的十 tb 秒的高速互联技术,很好的保证了芯片之间的数据共享。显存也从 h 两百的一百四十一 gb 提升到了一百九十二 gb, 同时显存的贷宽从四点八 t 每秒提升到了八 t 每秒。更高的效率也带来了电力消耗和采购成本的减少。按照英伟达官方的说法,相比 h 一百 b 两百芯片的能耗和采购综合成本降低到了二十五分之一。 布莱克有发布之后,推特上的网友是表示非常兴奋,有的人算了一笔账,十年内因为达到芯片的算力涨了三十倍,如果采用 gb 两百的 dxc 超级服务器训练 gpd 四,只需要相当于两年前的产品十分之一的 gpu 数量和四分之一的能源消耗, 这个迭代升级速度远超摩尔定律啊。作为两年一更新的架构,这次英伟达确实带来了不少惊喜,但这也让我们看到,随着逼近一纳米,人类在单个芯片性能提升速度上确实在放缓,像英伟达这样的公司也坚定的走上了七 pi 芯片拼接封装的道路。除了发布 来库尔的 gpu, 英伟达还宣布了 n i m 的推理微服务,相较于以前耗时几周的大模型步数,借助 n i m 可以在几分钟之内就完成一个针对自己企业优化过的模型步数。发布会的后半程,老黄也没有忘记他的数字孪生平台 omniverse 现场展示了一个非常牛的场景,在一个仓库中,货架上的箱子掉落, ai 捕捉到信息之后,会自动为仓库的机器人规划新的路径,这个路径还巧妙的避开了所有工作的工人,一切都在模拟中详细的展示了出来。除了工业场景,老黄还重磅宣布了 grow 的计划,计划中除了有数字孪生,还有 grow 大模型 机器人在大模型的帮助下,可以通过远程操作、模仿人类等诸多方式来自我学习,还可以在数字孪生中进行虚拟训练,最终实现开放场景下的工作和自动决策的目标。虽然目前只是个开始,但随着英伟达到加入,相信今年的人形机器人市场应该会非常的热闹,苹果的微信 pro 也在这次发布会上有 几次亮相,都是和生产力相关的场景,看来过不了多久,英伟达的一些模拟场景就可以在微信 pro 上落地了。最后不得不感叹下英伟达在 ai 计算方面的统治力。除了谷歌外,甲骨文、微软、亚马逊、欧门爱这些叫出名字的厂商都在这次发布会上有露脸, 老黄还现场向戴尔的创始人直播带货,让他赶紧下单。他还表示,亚马逊已经采购了两万片的 gb 两百,按照这个进度,在二零二四年,英伟达的芯片还将会处于供不应求的局面。