FairScale是一个用于高性能和大规模训练的PyTorch扩展库。
FairScale是一个用于高性能和大规模训练的PyTorch扩展库。此库扩展了基本的PyTorch功能,同时添加了新的SOTA扩展技术。FairScale以可组合模块和易于使用的API的形式提供了最新的分布式训练技术。这些API是研究人员工具箱的基本部分,因为它们试图用有限的资源扩展模型。
FairScale的设计考虑了以下价值:
大规模ML训练传统上意味着数据并行性,它允许我们同时使用多个设备来训练每个步骤的大批处理大小,从而与在单个设备上训练相比,在更短的时间内实现目标精度。随着ML研究的最新进展,ML模型的大小在过去几年中只是增加了,数据并行性不再服务于所有“缩放”目的。
您可以跨多个轴扩展培训,FairScale提供以下广泛类别的解决方案:
是否开源: 是
许可协议: BSD-3-Clause License.
官方地址: https://fairscale.readthedocs.io/en/latest/
GitHub地址: https://github.com/facebookresearch/fairscale
初始贡献者: FAIR Developers
官方使用指南:https://fairscale.readthedocs.io/en/latest/
TensorFlow - 深度学习
MindSpore - 深度学习