歡迎使用 ONNX Runtime

ONNX Runtime 是一個跨平臺的機器學習模型加速器,具有靈活的介面以整合硬體特定庫。ONNX Runtime 可與來自 PyTorch、Tensorflow/Keras、TFLite、scikit-learn 和其他框架的模型配合使用。

如何使用 ONNX Runtime

貢獻和自定義


快速入門模板


ONNX Runtime 用於推理

ONNX Runtime 推理功能支援微軟在 Office、Azure、Bing 等關鍵產品和服務以及數十個社群專案中的機器學習模型。

ONNX Runtime 推理的用例示例包括

  • 提高各種機器學習模型的推理效能
  • 在不同的硬體和作業系統上執行
  • 在 Python 中訓練,但部署到 C#/C++/Java 應用程式中
  • 使用不同框架建立的模型進行訓練和推理

工作原理

前提很簡單。

  1. 獲取模型。這可以是任何支援匯出/轉換為 ONNX 格式的框架訓練得到的。請參閱教程,瞭解一些流行的框架/庫。
  2. 使用 ONNX Runtime 載入並執行模型。有關使用不同語言執行模型的資訊,請參閱基本教程
  3. (可選)使用各種執行時配置或硬體加速器調整效能。這裡有很多選項——請參閱效能部分作為起點。

即使沒有第 3 步,ONNX Runtime 通常也能提供比原始框架更好的效能。

ONNX Runtime 對模型圖應用多項圖最佳化,然後根據可用的硬體特定加速器將其劃分為子圖。核心 ONNX Runtime 中的最佳化計算核心可提供效能改進,分配的子圖可從每個執行提供程式獲得進一步加速。


ONNX Runtime 用於訓練