PyTorch 1.7 发布:支持 CUDA 11、FFT 新 API、及 Windows 分布式训练

PyTorch 1.7 现已发布,此版本增加了许多新的 API、包括对与 NumPy 兼容的 FFT 操作的支持、用于性能分析的工具、以及对基于分布式数据并行(Distributed Data Parallel,DDP)和基于远程过程调用(Remote Procedure Call, RPC)的分布式训练的重大更新。

此外,一些功能已经稳定下来,包括自定义 C++ 类、内存分析器、通过类似自定义张量对象的扩展、RPC 中的用户异步函数、以及 torch 中的许多其他功能,例如 Per-RPC timeout、DDP dynamic bucketing 和 RRef helper。

一些更新亮点如下:

  • 正式支持 CUDA 11 ,二进制文件可通过 PyTorch.org下载。
  • 在 autograd 分析器中更新和添加 RPC、 TorchScript 和 Stack traces 的分析和性能
  • (Beta)通过 torch.fft 支持兼容 NumPy 的快速傅里叶变换(FFT)
  • (原型)支持 Nvidia 新一代 A100 GPU 和原生 TF32 格式
  • (原型)现在支持 Windows 上的分布式训练
  • torchvision
    • (稳定) 变换现在支持 Tensor 输入、批量计算、GPU 和TorchScript
    • (稳定)用于 JPEG 和 PNG 格式的原生图像 I/O
    • (Beta)新的视频读取器 API
  • torchaudio
    • (稳定)增加了对语音记录(wav2letter)、文本到语音(WaveRNN)和源分离(ConvTasNet)的支持

值得注意的是,从 PyTorch 1.6 开始,功能的状态将分为三种,分别是稳定、Beta 和原型。

可在此处找到完整的发行说明。

猜你喜欢

转载自www.oschina.net/news/119555/pytorch-1-7-released