据该企业CEO黄仁勋详细介绍,A100 选用tsmc那时候最优秀的7 纳米技术加工工艺打造出,有着 540 亿次晶体三极管,总面积达到 826mm2,GPU 的至大功率也做到了 400W。又由于另外配用了三星 HBM2 显卡内存、第三代 Tensor Core和网络带宽达到600GB/s 的新版本 NVlink,英伟达显卡的A100在好几个主要用途也展示出强大的特性。
从英伟达显卡出示的数据信息能够见到,假如用 PyTorch 架构跑 AI 实体模型,对比上一代 V100 处理芯片,A100 在 BERT 实体模型的训炼上特性提高 6 倍,BERT 推论时特性提高 7 倍。而依据MLPerf机构在十月底公布的全新逻辑推理标准检测(Benchmark)MLPerf Inference v0.7結果,英伟达显卡A100 Tensor Core GPU云端逻辑推理的标准检测特性是最优秀intelCPU的237倍。
但英伟达显卡不停步在此。在昨天,她们公布了朝向AI非常测算的全世界最強GPU——A100 80GB;此外,她们还产生了一体式AI大数据中心NVIDIA DGX Station A100及其NVIDIA Mellanox 400G InfiniBand商品。
全世界最強的AI超算GPU
据英伟达显卡层面详细介绍,企业全新升级的 A100 80GB GPU的较大 特性取决于选用了HBM2E内存技术,能将A100 40GB GPU的带宽测试运行内存增加一倍至80GB,那样的设计方案也让英伟达显卡变成业界第一个完成了2TB/s之上的内存带宽的
公司。
“若要得到 HPC和AI的全新科研成果,则必须搭建较大 的实体模型,而这必须比过去更高的内存空间和高些的网络带宽。A100 80GB GPU所出示的运行内存是六个月前发布的上代商品的二倍,提升了每秒钟2TB的限定,使科学研究工作人员能够解决全世界科学研究及互联网大数据层面最不容乐观的挑戰。”NVIDIA运用深度神经网络科学研究高级副总裁Bryan Catanzaro表明。
除此之外,第三代Tensor Core关键、MIG技术性、结构型稀少及其第三代NVlink和NVSwitch,也是全新升级GPU可以得到 销售市场认同的确保。
从英伟达显卡出示的材料我们可以见到,该企业的第三代Tensor Core关键根据全新升级TF32,能将上一代Volta构架的AI货运量提升 高达20倍;根据FP64,新关键也是能将HPC特性提升 高达2.5倍;而根据 INT8,新关键还可以将AI逻辑推理特性提升 高达20倍,而且适用BF16数据类型。
MIG技术性则能将单独单独案例的运行内存增加一倍,并可数最多出示七个MIG,让每一个案例具有10GB运行内存。英伟达显卡层面表明,该技术性是一种安全性的硬件配置隔离方法,在解决各种较小的工作中负荷时,可完成GPU最好使用率。比如在如RNN-T等全自动语言识别实体模型的AI逻辑推理上,单独A100 80GB MIG案例可解决更规模性的大批量数据信息,将生产制造中的逻辑推理货运量提升 1.25倍。
对于结构型稀少,则能够将逻辑推理稀少实体模型的速率提升 2倍;包含第三代NVl
ink和NVSwitch以内的新一代互联技术性,则可使GPU中间的网络带宽提升至原先的二倍,将数据信息密集式工作中负荷的GPU数据信息传输速率提升 至每秒钟600 gigabytes。
除开特性提高之外,根据A100 40GB的多元化功能分析的A100 80GB GPU也变成必须很多数据信息储存空间的各种运用的理想化挑选。
以DLRM等推荐算法实体模型为例子,她们为AI训炼出示了包含数十亿客户和商品信息的大量表格。但A100 80GB可完成达到3倍加快,使
公司能够再次迅速训炼这种实体模型,进而出示更为精准的强烈推荐;在TB级零售数据分析标准上,A100 80GB将其特性提升 了2倍,使其变成可对最规模性数据开展迅速剖析的理想化服务平台;针对科学研究运用,A100 80GB能为天气预告和密度泛函理论等行业出示极大的加快。
“做为NVIDIA HGX AI非常测算服务平台的重要部件,A100 80GB还可训炼如GPT-2那样的、具备大量主要参数的较大 实体模型。”英伟达显卡层面注重。
下一代400G InfiniBand
在公布A100 80GB的另外,英伟达显卡还带了下一代的400G InfiniBand商品。在叙述英伟达显卡的新产品以前,大家必须先了解一下什么叫InfiniBand。
说白了InfiniBand,是一种通信网络协议书,它出示了一种根据互换的构架,由CPU连接点中间、CPU连接点和键入/輸出连接点(如硬盘或储存)中间的点到点双重串行通信链接组成。每一个链接都是有一个联接到链接两边的机器设备,那样在每一个链接两边控制传输(推送和接受)的特点就被非常好地界定和操纵。而早期被英伟达显卡回收的Mellanox则是这一行业的权威专家。
材料显示信息,Mellanox为网络服务器,储存和超融合基础设施建设出示包含以太网交换机,处理芯片和InfiniBand智能化互联解决方法以内的很多的大数据中心商品,在其中,更以InfiniBand互联,是这种商品中头等大事。
据英伟达显卡详细介绍,企业发布的第七代Mellanox InfiniBand NDR 400Gb/s上产生了更低的延迟时间,与上一代商品对比,新的商品也是完成了数据信息货运量的翻番。又由于英伟达显卡为这一新产品产生了互联网测算模块,这就要其可以得到 附加的加快。
英伟达显卡进一步强调,做为一个朝向AI非常测算的业内最强劲的互联网解决方法,Mellanox NDR 400G InfiniBand网络交换机,可出示3倍的端口号相对密度和32倍的AI加快工作能力。除此之外,它还将条式网络交换机系统软件的汇聚双重货运量提升 了5倍,做到1.64 petabits/s,进而使客户可以以越来越少的网络交换机,运作更高的工作中负荷。
“根据Mellanox InfiniBand构架的边沿网络交换机的双重总货运量达到51.2Tb/s,完成了具备里程碑式实际意义的每秒钟超出665亿数据文件的解决工作能力。”英伟达显卡层面注重。而根据出示全世界唯一的彻底硬件配置卸载掉和互联网测算服务平台,NVIDIA Mellanox 400G InfiniBand完成了大幅度的特性飞越,可加速有关科学研究工作中的进度。
“大家的AI顾客的最重要的工作中便是解决日渐繁杂的应用软件,这必须更迅速、更智能化、更具有扩展性的互联网。NVIDIA Mellanox 400G InfiniBand的大量货运量和智能加速模块使HPC、AI和集成电路工艺云基础设施建设可以以更低的成本费和多元性,完成无以伦比的特性。” NVIDIA互联网副总裁Gilad Shainer表明。
从她们出示的数据信息我们可以见到,包含Atos、Dell高新科技、富士通、的浪潮、想到和SuperMicro等企业以内的全世界领跑的基础设施建设生产商,方案将Mellanox 400G InfiniBand解决方法集成化到她们的
公司级商品中去。除此之外,包含DDN、IBM Storage及其其他储存生产商以内的领跑的储存基础设施建设合作方也将适用NDR。
全世界唯一的千兆网卡级工作组服务器
为了更好地解决不一样开发人员对AI系统软件的要求,在发布处理芯片和联接解决方法的另外,英伟达显卡在17年还发布一体式的AI大数据中心NVIDIA DGX Station。做为全世界第一款朝向 AI 开发设计最前沿的本人高性能计算机,开发人员只必须对其实行简易的设定,就可以用Caffe、TensorFlow等去做深度神经网络训炼、高精密图象3D渲染和计算机的应用等传统式HPC运用,防止了装驱动器和配备自然环境等不便,这很合适高等院校、研究室、及其IT能量相对性欠缺的
公司。
昨天,英伟达显卡今天公布了全世界唯一的千兆网卡级工作组服务器NVIDIA DGX StationA100 。做为开拓性的第二代人工智能技术系统软件,DGX Station A100加快考虑坐落于全世界全国各地的企业办公室、科学研究组织、试验室或家装小户型中企业办公的精英团队针对深度学习和计算机科学工作中负荷的明显要求。而为了更好地适用例如BERT Large逻辑推理等繁杂的会话式AI实体模型,DGX Station A100比上一代D
GX Station加速4倍之上。针对BERT Large AI训炼,其特性也是提升 近3倍。
从特性看来,英伟达显卡层面表明,DGX Station A100的AI特性达到2.5 petaflops,是唯一一台配置四个根据NVIDIA NVl
ink彻底互联的全新升级NVIDIA A100 Tensor Core GPU的工作组服务器,可出示达到320GB的GPU运行内存,可以助推
公司级计算机科学和AI行业以最速率获得提升。
做为唯一适用NVIDIA多案例GPU(MIG)技术性的工作组服务器,单一的DGX Station A100数最多可出示28个单独GPU案例以运作并行任务,并可不在危害系统软件特性的前提条件下适用多客户。
为了更好地适用更规模性的大数据中心工作中负荷,DGX A100系统软件还将配置全新升级NVIDIA A100 80GB GPU使每一个DGX A100系统软件的GPU内存空间增加一倍(最大达到640GB),进而保证 AI精英团队可以应用更规模性的数据和实体模型来提升 精确性。
“全新升级DGX A100 640GB系统软件也将集成化到商业版NVIDIA DGX SuperPODTM 解决方法,使组织能根据以20 个DGX A100系统软件为企业的一站式AI高性能计算机,完成规模性AI实体模型的搭建、训炼和布署。”英伟达显卡层面注重。
该企业副首席战略官 DGX系统软件经理Charlie Boyle则表明:“DGX Station A100将AI从大数据中心导入能够在任何地方连接的网络服务器级系统软件。计算机科学和AI科学研究精英团队能够应用与NVIDIA DGX A100系统软件同样的
手机软件局部变量加快她们的工作中,使其可以轻轻松松地从开发设计迈向布署。”
从英伟达显卡出示的材料我们可以见到,配置A100 80GB GPU的NVIDIA DGX SuperPOD系统软件将首先安裝于美国的Cambridge-1高性能计算机,以加快推动保健
医疗行业科学研究,及其佛罗里
达州高校的全新升级HiPerGator AI高性能计算机,该高性能计算机将赋力这一“太阳之州”进行AI赋能的科学新发现。
在2020年公布的第二季财报上,英伟达显卡大数据中心业务流程首超
手机游戏,变成企业营业收入较大 的业务流程版块。从营业收入提高上看,与上年同比增加,英伟达显卡大数据中心业务流程业务流程大幅度提高167%,从而能够见到英伟达显卡在这个销售市场知名度的提高及其企业对这一销售市场的自信心。