• 2021-07-01 02:00:34
  • 阅读(2177)
  • 评论(8)
  • 本周四,MLCommons发布了最新MLPerf Inference v1.0基准测验(Benchmark)成果,英伟达GPU自始自终地表现不俗,但值得英伟达留意的是,其超大规模数据中心的竞争对手,Graphcore公司专为机器智能规划的 IPU也参与了此次基准测验。

    MLPerf基准测验发布至今已有三年之久,此前英伟达、谷歌、阿里巴巴等大公司一向经过MLPerf跑分成果着重其产品实力,可以应战英伟达GPU的IPU为何本年才参与MLPerf基准测验?初次参与MLPerf测验的IPU,终究表现怎么?

    卢涛标明,一方面,ResNet、BERT等使用都是在过往根据GPU架构挑选出来并深度优化的使用,对IPU或许并不是很友爱,另一方面,关于最终用户十分重视"每花费一美金所能取得的练习收益",假如将练习收益和目录折算成性价比,RedNet练习使命下,IPU-POD16相对DGX A100 640G版别的性价比收益有1.6倍,BERT练习使命下,IPU-POD16相对DGX A100 640G版别的性价比收益有1.3倍。

    也就是说,假如单纯从性价比收益来看,IPU或许是更好的挑选。

    事实上,Graphcore IPU与英伟达GPU跑分比照并不是第一次,不过其时并未挑选在业界认可度和承受度更高的MLPerf。

    上一年8月,Graphcore经过参与谷歌发布的EfficicentNet模型、ResearchNEt模型以及NLP模型等基准测验且与英伟达A100 GPU比照。测验数据标明,多维度比较后,IPU的推理功用与练习功用均优于GPU。

    为何其时未提交MLPerf的成果?"由于其时资源有限,更多地聚集在对SDK的打磨、优化、功用开发,和头部客户及合作伙伴联合探究使用场景落地本科毕业证样本。"卢涛如此答复。

    卢涛解说到,参与MLPerf Benchmark需求较大的投入,Graphcore十几个团队成员别离直接或直接参与了这一项目,且至少消耗半年以上的时刻。"今日Graphcore全体软硬件,尤其是软件和生态,愈加老练完善,公司全体实力和之前比较愈加雄厚。在几个要素叠加的影响下,咱们参与了MLPerf练习1.0的Benchmark,后续也有继续投入的方案。"

    挑选在资源足够后参与MLPerf基准测验,一起也标明Graphcore对这一基准测验的认可。

    "AI芯片工业的全体起点是DSA(Domain Specific Architecture),与不论是在全体架构上仍是计算机体系结构上比较照较相似的CPU比较,各个AI处理器的架构之间会有较大的差异。关于最终用户来说,就很难表现所挑选的架构关于事务获益发生的影响。"

    "我并不能说MLPerf代表了整个AI工业一切的使命,可是它代表了今日工业界比较干流布置的使用场景。我以为MLPerf是有必定指导含义的。"卢涛说道。

    尽管根据GPU架构挑选出来的使用模型对IPU而言并不友爱,但Graphcore以为,需求积极参与工业规范的讨论,逐步成为工业中有力的声响,才干影响工业规范的走向。

    "之后咱们会积极参与MLPerf的提交,供给一些不同的使命,让MLPerf的作业负载更具代表性。"卢涛说道。

    雷锋网(大众号:雷锋网)雷锋网雷锋网

    不是GPU的IPU,为什么更值得英伟达警觉?

    雷锋网原创文章,未经授权制止转载。概况见转载须知。

    来源:版权归属原作者,部分文章推送时未能及时与原作者取得联系,若来源标注错误或侵犯到您的权益烦请告知,我们会及时删除。

    23  收藏