首页 要闻 > 正文

WekaIO为数据较差的GPU引入DataOps AI流水线

高性能文件存储专家WekaIO今天推出了Weka AI,这是一个DataOps“存储解决方案框架”,旨在减少边缘核心云数据AI管道中的摩擦。

公司表示,该产品使单个命名空间实现数据管道的可见性,同时满足AI数据管道对存储IO各阶段的各种要求:需要大带宽进行摄取和训练,而ETL需要混合读写(提取、转换、加载)且低延迟是推理的优先级。

Weka AI属于“DataOps”的范畴,是DevOps的一个分支。行业分析公司IDC的企业基础设施实践研究总监前岛亚美波特尼斯称之为“一种新的智能数据运营平台……可以减少摩擦,提高自动化效率。并通过政策和元数据驱动的流程提供灵活性和开放性,可以适应现代环境中数据的多样性和分布性。”

WekaIO表示,它由Weka文件系统、可定制的参考架构和基于与Nvidia和Mellanox合作的软件开发套件组成,Weka AI为单个GPU客户端提供超过73 GB/s的带宽,并补充说它提供了具有版本控制、可解释性和可重复性的“操作敏捷性”,并提供管理和合规性以及在线加密和数据保护。"

该公司表示:“人工智能数据管道与传统的基于文件的IO应用程序有本质区别。”因此,理想的解决方案必须满足所有这些不同的需求,并及时提供大规模的见解。传统解决方案缺乏这些功能,并且通常无法满足跨角色和数据移动性的性能和共享要求.这些解决方案必须提供数据管理,通过打破孤岛来提供运营敏捷性、治理和可操作的情报。"

纵观整个数据管道模式,WekaIO的AI和战略联盟负责人Shailesh Manjrekar在博客中表示:“为了迎合复杂的DNN(动态神经网络)和HPC,HPDA和AI,架构的集成,如GPUDirect存储,成为直接提供GPU内存的必不可少的,GPU内存可以提供最高的带宽和最低的延迟。与SuperPOD共享64个DGX-2(5000个核心x 16个特斯拉x 64个DGX-2)的分布式训练数据集已经成为常态。想象一下计算层中涉及的并行性。诸如NVMeOF(通过InfiniBand或RoCE结构)之类的传输使数据局部性成为一个问题,尤其是对100 Gb/秒和200 Gb/秒网络的支持。”

英伟达加速计算产品管理总监Paresh Kharya表示:“要实现AI的端到端应用性能,需要为高性能的英伟达GPU提供高吞吐量的数据管道。”Weka AI使用GPUDirect存储提供存储和GPU之间的直接路径,消除了数据密集型AI应用的I/O瓶颈。"

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。