跳到主內容
Link - ONNX 執行環境
Menu - ONNX 執行環境
Expand - ONNX 執行環境
(external link) - ONNX 執行環境
Document - ONNX 執行環境
Search - ONNX 執行環境
Copy - ONNX 執行環境
Copied - ONNX 執行環境
ONNX Runtime
安裝ONNX Runtime
開始使用
Python
C++
C
C#
Java
JavaScript
Web
Node.js繫結
React Native
Objective-C
Julia和Ruby API
Windows
移動
裝置上訓練
大型模型訓練
教程
API基礎
加速PyTorch
PyTorch推理
在多個目標上進行推理
加速PyTorch訓練
加速TensorFlow
加速Hugging Face
部署到AzureML
部署到移動裝置
使用YOLOv8進行物件檢測和姿態估計
Android上的移動影像識別
提高移動裝置上的影像解析度
iOS上的移動物件檢測
ORT Mobile模型匯出助手
Web
使用ONNX Runtime構建Web應用
“env”標誌和會話選項
使用WebGPU
使用WebNN
處理大型模型
效能診斷
部署ONNX Runtime Web
故障排除
使用ONNX Runtime和Next.js分類影像
JavaScript中BERT任務的自定義Excel函式
部署到IoT和邊緣裝置
Raspberry Pi上的IoT部署
部署傳統機器學習
使用C#進行推理
C#基礎教程
使用C#進行BERT NLP推理
使用C#配置GPU的CUDA
使用C#中的ResNet50v2進行影像識別
使用C#的Stable Diffusion
使用OpenVINO在C#中進行物件檢測
使用Faster RCNN在C#中進行物件檢測
裝置上訓練
構建Android應用程式
構建iOS應用程式
API文件
構建ONNX Runtime
構建用於推理
構建用於訓練
使用不同EPs構建
構建用於Web
構建用於Android
構建用於iOS
自定義構建
生成API(預覽)
教程
Phi-3.5視覺教程
Phi-3教程
Phi-2教程
使用LoRA介面卡執行
DeepSeek-R1-Distill教程
在驍龍裝置上執行
API文件
Python API
C# API
C API
Java API
如何操作
安裝
從原始碼構建
構建模型
為驍龍構建模型
故障排除
遷移
參考
配置參考
介面卡檔案規範
執行提供者
NVIDIA - CUDA
NVIDIA - TensorRT
Intel - OpenVINO™
Intel - oneDNN
Windows - DirectML
Qualcomm - QNN
Android - NNAPI
Apple - CoreML
XNNPACK
AMD - ROCm
AMD - MIGraphX
AMD - Vitis AI
雲 - Azure
社群維護
Arm - ACL
Arm - Arm NN
Apache - TVM
Rockchip - RKNPU
華為 - CANN
新增新提供者
EP上下文設計
NVIDIA - TensorRT RTX
擴充套件
新增運算子
構建
效能
調整效能
分析工具
日誌記錄與追蹤
記憶體消耗
執行緒管理
I/O繫結
故障排除
模型最佳化
量化ONNX模型
Float16和混合精度模型
圖最佳化
ORT模型格式
ORT模型格式執行時最佳化
Transformers最佳化器
使用Olive進行端到端最佳化
裝置張量
生態系統
適用於PyTorch的Azure容器 (ACPT)
參考
釋出
相容性
運算子
運算子核心
Contrib運算子
自定義運算子
精簡運算子配置檔案
架構
引用ONNX Runtime
ONNX Runtime中的依賴管理
GitHub上的ONNX Runtime文件
ONNX Runtime
安裝
開始使用
教程
API文件
YouTube
GitHub
教程
部署傳統機器學習
部署傳統機器學習模型
ONNX Runtime支援
ONNX-ML
,並可執行從Scikit-learn、LightGBM、XGBoost、LibSVM等庫建立的傳統機器學習模型。
目錄
將模型轉換為ONNX
部署模型
將模型轉換為ONNX
Scikit-learn轉換
Scikit-learn自定義轉換
XGBoost轉換
LightGBM轉換
ONNXMLTools示例
部署模型
[即將推出]
在C#環境中部署Python訓練的模型
[即將推出]
無需pkl檔案即可安全部署scikit-learn模型