<kbd id='CLPzTeSRBSjPt3z'></kbd><address id='CLPzTeSRBSjPt3z'><style id='CLPzTeSRBSjPt3z'></style></address><button id='CLPzTeSRBSjPt3z'></button>

              <kbd id='CLPzTeSRBSjPt3z'></kbd><address id='CLPzTeSRBSjPt3z'><style id='CLPzTeSRBSjPt3z'></style></address><button id='CLPzTeSRBSjPt3z'></button>

                      <kbd id='CLPzTeSRBSjPt3z'></kbd><address id='CLPzTeSRBSjPt3z'><style id='CLPzTeSRBSjPt3z'></style></address><button id='CLPzTeSRBSjPt3z'></button>

                              <kbd id='CLPzTeSRBSjPt3z'></kbd><address id='CLPzTeSRBSjPt3z'><style id='CLPzTeSRBSjPt3z'></style></address><button id='CLPzTeSRBSjPt3z'></button>

                                      <kbd id='CLPzTeSRBSjPt3z'></kbd><address id='CLPzTeSRBSjPt3z'><style id='CLPzTeSRBSjPt3z'></style></address><button id='CLPzTeSRBSjPt3z'></button>

                                              <kbd id='CLPzTeSRBSjPt3z'></kbd><address id='CLPzTeSRBSjPt3z'><style id='CLPzTeSRBSjPt3z'></style></address><button id='CLPzTeSRBSjPt3z'></button>

                                                  公司介绍

                                                  欢迎访问太阳城娱乐官方网,亚洲最佳娱乐平台,太阳城娱乐城,官网直营大额无忧,太阳城客户端下载

                                                  设备管理

                                                  太阳城娱乐官方网_2017 中国 AI 处事器市占率超 57%

                                                  发布时间:2018/07/08 作者:太阳城娱乐官方网点击量:878

                                                    算法当然重要,但想做好 AI,还必要强盛的底层支撑。谷歌在实习 AlphaGo Zero 时,用到 2000 块 TPU,仅仅耗费三天就完成实习。今朝,企业 AI 化的需求不绝加深,必要有很是强盛的计较平台来有力支撑线上推理和线下实习。

                                                    AI 计较平台涉及到 GPU、CPU、TPU、FPGA 等硬件,每类硬件背后都有代表企业。英伟达 GPU 以卓越的机能,在 AI 计较中占有了相等大的市场;英特尔在 CPU 上有得天独厚的上风,并善于机关生态,譬如将 CPU 与 FPGA 相团结;谷歌对准深度进修场景,宣布专用 TPU 加快器。

                                                    在 4 月的海潮云数据中心相助搭档大会(IPF2018)上,海潮首发面向 AI 云计划的弹性 GPU 处事器 NF5468M5,可机动支持 AI 模子的线下实习和线上推理。(今朝,海潮在雷锋网学术频道 AI 科技评述旗下数据库项目「AI 影响因子」中得分为 8 。)

                                                  2017 中国 AI 办事器市占率超 57%

                                                    图:海潮弹性 GPU 处事器 NF5468M5

                                                    这一处事用具备以下成果:

                                                    面向线下实习对机能的需求,可支持 8 颗最高机能的 Tesla Volta GPU 以 PCI-E 或 NVLink 的高速互联。

                                                    面向在线推理对高能效比的需求,可支持 16 颗高能效比的 Tesla P4 GPU,合用于语音、图片、视频场景。

                                                    在智能视频说明场景下,可同时处理赏罚 300 路以上 1080p 高清视频布局化。

                                                    在数据存储和通讯机能方面,支持 288TB 大容量存储或 32TB 固态存储,能实现高达 400Gbps 的通讯带宽和 1us 的超低耽误。

                                                    据海潮先容,AI 云对基本架构的计划带来了新的挑衅,要求 AI 处事用具备得当于差异 AI 实习场景的 GPU 机动拓扑、AI 线上推理的高并发低耽误与高能效比、大局限 AI 数据的存储与通讯手段。基于此,团结英伟达 GPU 芯片的精采机能以及妥当生态,海潮做出一系列创新,推出 NF5468M5。

                                                    除了最新宣布的 GPU 处事器 NF5468M5,海潮的处事器还涉及 CPU、FPGA。海潮通过实测数据,说明差异场景下人工智能计较对处事器的机能要求,公道搭配以 CPU、GPU 和 FPGA 为焦点的 AI 计较处事器。以下是两个典范案例。

                                                    合用于多个应用场景的 FPGA 加快装备 F10A

                                                    F10A 是一款 FPGA 加快装备。基于 FPGA 具有可编程专用性,高机能及低功耗的特点,海潮 F10A AI 线上推理加快方案针对 CNN 卷积神经收集的相干算法举办优化和固化,可加快 ResNet 等神经收集,可以或许应用于图片分类、工具检测和人脸辨认等应用场景。

                                                    这一处事器的单芯片峰值运算手段为 1.5 TFlops,每瓦特机能到达 42 GFlops。同时,F10A 具有机动的板卡内存设置,最大支持 32G 双通道内存,可以或许寄存更多的并利用命数据。

                                                    最大支持 64 块 GPU 的 SR-AI

                                                    SR-AI 单机可实现支持 16 个 GPU 的超大扩展性节点,该方案最大支持 64 块 GPU,峰值处理赏罚手段为 512 TFlop,可支持千亿样本、万亿参数级此外模子实习。该处事器冲破了传统处事器的 GPU/CPU 紧耦合架构,通过 PCI-e Switch 节点毗连上行的 CPU 计较/调治节点和下行的 GPU Box,实现 CPU/GPU 的独立扩容,停止传统架构进级带来的部件太过冗余,使得 GPU 扩展无需同步设置高本钱的 IT 资源,可将本钱优化 5% 以上,跟着局限上升,本钱上风越发明明。

                                                    海潮暗示,在计较平台的选择上,企业可以在得当线下实习的计较加快节点回收海潮领先业界计划的浮点运算手段强、高扩展的 GPU 处事器,或 KNM 计较加快器,而用于线上识此外计较加快节点回收海潮低功耗、高能效比的 GPU 处事器,可能低功耗定制优化推理措施的 FPGA 加快器。

                                                  2017 中国 AI 办事器市占率超 57%

                                                    图:海潮 GPU 处事器产物家属

                                                    2017 年,海潮 AI 处事器在中国 AI 市场占据率高出 57%,阿里巴巴、腾讯和百度三家运营商 90% 以上的 AI 处事器都来自海潮。

                                                    对付海潮在 AI 处事器上的乐成,海潮 AI&HPC 总司理刘军将其归功于三个方面,一是对 GPU 的机关早,二是对行业客户的掌握——把互联网作为主航道,三是产物创新的手段和结果有担保。

                                                    日前,海潮也果真了企业 AI 计策。

                                                    2018 年 4 月 26 日,在海潮云数据中心相助搭档大会 IPF2018 上,海潮宣布全新 AI 品牌 TensorServer,明晰转达海潮对 AI 营业的刻意与愿景。海潮团体副总裁彭震对 TensorServer 品牌予以了解释:「Tensor 是算法的基本元素,Server 是计较力的基本架构。AI 基本架构对付 AI 财富一连快速康健成长至关重要。TensorServer 意在成为 AI 的承载者与赋能者,整合创新 AI 基本架构体系,以计较开启可进化的伶俐天下。」

                                                    这里的 AI 基本架构体系涵盖平台、打点、框架、应用多个方面。

                                                    在 AI 打点上,海潮陈设 AIStation 人工智能深度进修集群打点软件。AIStation 首要面向深度进修计较集群,提供数据处理赏罚、模子开拓、模子实习、推理处事全流程处事,支持多种深度进修框架,可以或许快速陈设深度进修实习情形,全面打点深度进修实习使命,为深度学惯用户提供高效易用的平台。另外,这一软件可以对计较集群的 CPU 及 GPU 资源举办同一的打点、调治及监控,有用的进步计较资源的操作率和出产率。

                                                  2017 中国 AI 办事器市占率超 57%

                                                    图:AIStation 体系架构图

                                                    作为增补,海潮还自研 Teye 应用特性说明体系。Teye 首要用于说明 AI 应用措施在 GPU 集群上运行时对硬件及体系资源占用的环境,反应出应用措施的运行特性、热门及瓶颈,从而辅佐用户最大限度的在现有平台发掘应用的计较潜力,进而为应用措施的优化以及应用算法的调解改造提供科学的指引偏向。

                                                    而在框架上,海潮早在 2015 年就宣布 Caffe-MPI 深度进修计较框架,他们在 Caffe 架构的基本上,针对并行扩展性做出一系列创新。

                                                    据雷锋网相识,最新版本 Caffe-MPI 在 4 节点 16 块 GPU 卡集群体系上实习机能较单卡晋升 13 倍,其每秒处理赏罚图片数目是同设置集群运行的 TensorFlow 1.0 的近 2 倍。

                                                    Caffe-MPI 计划了两层通讯模式:节点内的 GPU 卡间通讯及节点间的 RDMA 全局通讯,这极大低落了收集通讯的压力,并降服了传统通讯模式中 PCIE 与收集之间带宽不平衡的影响,同时 Caffe-MPI 还计划实现了计较和通讯的重叠。另外,新版本 Caffe-MPI 提供了更好的 cuDNN 兼容性,用户可以无缝挪用最新的 cuDNN 版本实现更大的机能晋升。