这样一个大数据分析流程,必须中用DASK、PYTHON、PANDAS、SKLEARN、NUMPY、Apache Arrow等组件。RAPIDS建构于Apache Arrow、PANDAS和SKLEARN等组件之上,通过CUDF数据过滤器、CUML机器学习、CUGRAPH数据图像化来加快处置数据,为最风行的Python数据科学工具链带给了GPU公里/小时。
这三套软件工具都是基于CUDA研发,可以把它们看作是CUDA的一部分。其中CUDF与Pandas的功能十分类似于,Pandas的所有功能都可以在CUDF里寻找对应的API;CUML则对应SKLEARN,无论是分类、聚类、重返等算法都可以在CUML里面寻找。而CUGRAPH目前仍未月发售,预计不会在明年月构建到RAPIDS中。
赵立威向透漏,RAPIDS十分不易与此前的计算出来框架统合,虽然无法说道是“无代码”过渡性,但代价十分小,且数据处理效率可提高50倍以上。同时为了将更加多的机器学习库和功能引进RAPIDS,NVIDIA普遍地与开源生态系统贡献者进行合作,其中还包括Anaconda、BlazingDB、Databricks,以及很快快速增长的Python数据科学库pandas等等。此外,黄仁勋在GTC Europe大会上展出RAPIDS时用的DGX-2,用于了16块Tesla V100计算出来卡,每块卡备有32GB HBM2RAM,比特率高达900GB/s,两块计算出来卡之间通过300GB/s的NV Switch总线网络,使整台服务器享有了un-block无受阻通讯能力,总算力高达2PFLOPs(半精度浮点),数据处理能力相等于5台DGX-1。
除了DGX-2和DGX-1,NVIDIA还有一系列合作伙伴获取的很多的硬件产品,如一些ODM、OEM厂商基于HGX-1和HGX-2两种架构标准生产的许多有所不同类型服务器,甚至还包括上一代Pascal架构的GPU的服务器,都可以都可以很好的承托RAPIDS的运营和用于。赵立威大笑称之为,由于此前数据处理的速度太快,数据科学家往往有大量的空闲等待时间,可以悠闲的喝咖啡。应用于RAPIDS平台之后,等待时间变长,必须数据科学家创造性参予的部分适当变多了,数据科学家这一工作有可能仍然是美差。
当然,数据分析和机器学习领域的持续走热,看上这片市场的也不只NVIDIA一家。上周赛灵思刚发售基于UltraScale+ FPGA打造出的数据中心和AI加速卡Alveo U200和U250,堪称动态推测吞吐量比高端CPU高达20倍。
赛灵思数据中心副总裁Manish Muthal回应,Alveo加速器卡的发售更进一步前进了赛灵思向平台公司的转型,使大大快速增长的应用于合作伙伴生态系统以比以往更慢的速度加快创意,并将与应用于生态系统进行合作,联合向客户发售使用Alveo的各种可产品化的解决方案。与NVIDIA发售的RAPIDS平台比起,二者通过一硬一软的形式覆盖面积了完全完全相同的范围,回应赵立威对(公众号:)回应,数据分析和机器学习市场仍未开发利用其特定边界,领域内应用于场景十分多样化,无论是基于FPGA还是ASIC展开异构加快都是不切实际的,几乎各不相同针对有所不同的场景所产生的有所不同市场需求。
原创文章,予以许可禁令刊登。下文闻刊登须知。
本文关键词:竞技宝官网平台,NVIDIA,推出,RAPIDS,开源,GPU,加速,平台,瞄准,这样
本文来源:竞技宝官网平台-www.shoppingspreenow.com