端到端
生产就绪
借助TorchScript,PyTorch在eager模式下提供易用性和灵活性,同时无缝过渡到图形模式以在C++运行时环境中实现速度、优化和功能。
火炬服务
TorchServe是一种易于使用的工具,用于大规模部署PyTorch模型。它与云和环境无关,支持多模型服务、日志记录、指标和为应用程序集成创建RESTful端点等功能。
分布式训练
通过利用对集体操作的异步执行和可从Python和C++访问的对等通信的本机支持,优化研究和生产中的性能。
移动(实验)
PyTorch支持从Python到iOS和Android上的部署的端到端工作流。它扩展了PyTorchAPI,以涵盖将ML整合到移动应用程序中所需的常见预处理和集成任务。
强大的生态系统
一个活跃的研究人员和开发人员社区已经建立了一个丰富的工具和库生态系统,用于扩展PyTorch并支持从计算机视觉到
本机ONNX支持
以标准ONNX(开放神经网络交换)格式导出模型,以便直接访问ONNX兼容平台、运行时、可视化工具等。
C++前端
C++前端是PyTorch的纯C++接口,遵循已建立的Python前端的设计和架构。它旨在支持高性能、低延迟和裸机C++应用程序的研究。
云支持
PyTorch在主要云平台上得到很好的支持,通过预构建图像、GPU上的大规模训练、在生产规模环境中运行模型的能力等提供无摩擦开发和轻松扩展。