IT之家 3 月 12 日消息,据谷歌官博消息,机器学习 ML 开发和部署如今受到了分散和孤立的基础设施的影响,这些基础设施可能因框架、硬件和用例而异。这种碎片化限制了开发者的速度,并对模型的可移植性、效率和生产化造成了障碍。
为此,阿里巴巴、亚马逊 AWS、AMD、苹果、Arm、Cerebras、谷歌、Graphcore、Hugging Face、英特尔、Meta 和英伟达 12 家科技巨头宣布,联合推出 OpenXLA 项目(包括 XLA、StableHLO 和 IREE 存储库),使开发者能够编译和优化来自所有领先 ML 框架的模型,以便在各种硬件上进行高效培训和服务。
据介绍,OpenXLA 项目提供了一个最先进的 ML 编译器,可以在复杂的 ML 基础设施中扩展。这一通用的编译器可以将不同的硬件设备桥接到当今使用的多个框架(例如 TensorFlow、PyTorch),通过 OpenXLA 来帮助加速 AI 的开发和交付来实现 AI 的实际潜力。
谷歌称,使用 OpenXLA 的开发者将看到训练时间、吞吐量、服务延迟以及最终上市时间和计算成本方面的显著改进。
OpenXLA 项目目前已上传到 GitHub,IT之家附访问链接。