爱搞笑笑一笑 A100将Ampere架构瞄准边缘和5G,NVIDIA通过EGX


爱搞笑笑一笑 A100将Ampere架构瞄准边缘和5G,NVIDIA通过EGX
文章图片
NVIDIA在其自2009年成立以来一直参加的GPU技术大会(GTC)上介绍该公司的最新GPU架构 。 多年来 , NVIDIA推出了其企业 , 数据中心和AIGPU产品以及其背后的架构 。 他们 , 在GTC会议上 。 今年没有什么不同 , 除了宣布实际上是在进行 , 而且比传统的3月时间表晚了一点 。 就是说 , 原定于3月发布的许多公告都被推迟了 , 直到公司和员工从家里弄清整个工作 。 安培是NVIDIAGPU系列产品中的下一个产品 , 该产品以一些世界上最著名的科学家命名(与科学界中的NVIDIAGPU计算起源致敬 , 与GPGPU和CUDA合作) 。
NVIDIAA100
通常 , 用于企业和数据中心的NVIDIAGPU架构以AI加速为目标 , NVIDIA现在也在显着提高公司的推理能力 , 以抵御众多竞争对手 , 这些竞争对手由于NVIDIA的优势而选择专注于这一领域 。 NVIDIA声称A100在AI性能方面进行了相当大的改进 , 数量级达到“高达20倍” , 该公司称这是其八代产品中性能上的最大飞跃 。 NVIDIAA100e的新架构是NVIDIA所谓的弹性多实例GPU(MIG) , 它将数据分析 , 统一到一个芯片中 。
NVIDIAA100GPU能够在同一芯片上分为七个不同的实例 , NVIDIA称之为MIG 。 或者 , 它可以通过NVLink与许多不同的A100GPU组合/p>
A100GPU还具有NVIDIA的第三代TensorCore , 可显着改善AI推理的性能 。 新的Tensor核心包括对TF32的支持NVIDIA可以这样宣称FP32的AI性能提高20倍 , 而无需对代码进行任何更改 。 此外 , NVIDIA的TensorCores最终支持FP64 , 该公司声称它将提供比上一代HPC应用程序多2.5倍的计算机 。 A100还具有第三代NVLinkNVLink3.0 , 它使GPU之间的带宽增加了一倍 , 从而可以通过MellanoxInfiniband改善同一节点或群集中多个GPU的扩展能力 。 NVIDIA表示A100GPU已全面投入生产 , 可立即通过NVIDIA或其众多合作伙伴直接购买 。
微软和其他一些早期采用者已经是A100的客户 。 其中包括印第安纳大学 , 朱利希超级计算中心 , 卡尔斯鲁厄技术学院和德国的马克斯·普朗克计算与数据设施 。 值得注意的是 , 美国能源部劳伦斯伯克利国家实验室也在使用它 。 许多CSP还计划提供基于A100的服务 , 包括阿里巴巴 , AWS , 百度 , 谷歌 , 甲骨文和腾讯 。 此外 , 通常的嫌疑人还希望使用基于A100的服务器:Atos , 戴尔技术 , 富士通 , 技嘉 , H3C , HPE , 浪潮 , 联想 , 广达和超微 。
由Ampere提供支持的边缘计算
借助NVIDIAA100GPU , NVIDIA还推出了许多基于Ampere架构的其他产品 。 这些产品之一就是EGXA100 , 它被设计为插入现有边缘数据中心 , 以帮助管理边缘附近的数据(尤其是大量数据可能进入边缘附近的数据中心) 。 与NVIDIAMellanoxConnectX-6Dx网卡搭配使用时 , EGXA100可以接收高达200Gbps的数据 , 并将其直接发送到GPU内存以进行AI或5G信号处理 。 随着NVIDIAMellanox的5G5T(电信业的时间触发传输技术)的推出 , EGX100是一款云原生软件定义的低延迟5G应用加速器 。 EGXA100将于今年年底上市 , 价格尚未公开 。 我希望将来会有其他人尝试为A100提供类似的解决方案 。 除了EGXA100 , NVIDIA还发布了EGXJetsonXavierNX , 它不是基于Ampere , 而是旨在实现低功耗边缘计算解决方案 。 EGXJetsonXavierNX在10瓦时提供14TOPS的性能 , 而在15瓦时则提供21TOPS的性能 。 基于EGXJetsonXavierNX的产品包括现已上市 , 适用于希望在边缘使用低功耗解决方案的用户 。
【爱搞笑笑一笑 A100将Ampere架构瞄准边缘和5G,NVIDIA通过EGX】毫无疑问 , NVIDIA基于Ampere的A100GPU是该公司有史以来最大 , 最复杂和最强大的GPU 。 尽管我们尚不了解GPU的所有架构细节 , 但我们确实知道这将为企业计算 , AI性能和HPC设定新标准 。 尽管NVIDIA仍然还是一家游戏公司 , 但很显然 , 许多不同的衍生GPU都将具有类似的云 , 游戏和专业图形功能 。 NVIDIA正在所有这些应用程序中注入AI , 并通过加速AI性能 , 相信NVIDIA正在使其自身与竞争对手脱颖而出 , 并扩大了AI可以加速的某些工作负载的性能差距 。