跳到主要內容
Link - ONNX 執行環境
Menu - ONNX 執行環境
Expand - ONNX 執行環境
(external link) - ONNX 執行環境
Document - ONNX 執行環境
Search - ONNX 執行環境
Copy - ONNX 執行環境
Copied - ONNX 執行環境
ONNX Runtime
安裝 ONNX Runtime
開始使用
Python
C++
C
C#
Java
JavaScript
Web
Node.js 繫結
React Native
Objective-C
Julia 和 Ruby API
Windows
移動裝置
裝置端訓練
大型模型訓練
教程
API 基礎
加速 PyTorch
PyTorch 推理
多目標推理
加速 PyTorch 訓練
加速 TensorFlow
加速 Hugging Face
部署到 AzureML
部署到移動裝置
使用 YOLOv8 進行目標檢測和姿態估計
Android 上的移動影像識別
提高移動裝置上的影像解析度
iOS 上的移動目標檢測
ORT 移動模型匯出助手
Web
使用 ONNX Runtime 構建 Web 應用
'env' 標誌和會話選項
使用 WebGPU
使用 WebNN
使用大型模型
效能診斷
部署 ONNX Runtime Web
故障排除
使用 ONNX Runtime 和 Next.js 對影像進行分類
JavaScript 中用於 BERT 任務的自定義 Excel 函式
部署到 IoT 和邊緣裝置
Raspberry Pi 上的 IoT 部署
部署傳統機器學習
使用 C# 進行推理
C# 基礎教程
使用 C# 進行 BERT NLP 推理
使用 C# 配置 CUDA 以用於 GPU
使用 C# 和 ResNet50v2 進行影像識別
使用 C# 進行 Stable Diffusion
使用 OpenVINO 在 C# 中進行目標檢測
使用 C# 和 Faster RCNN 進行目標檢測
裝置端訓練
構建 Android 應用程式
構建 iOS 應用程式
API 文件
構建 ONNX Runtime
為推理構建
為訓練構建
使用不同的 EP 構建
為 Web 構建
為 Android 構建
為 iOS 構建
自定義構建
生成 API (預覽)
教程
Phi-3.5 視覺教程
Phi-3 教程
Phi-2 教程
使用 LoRA 介面卡執行
DeepSeek-R1-Distill 教程
在 Snapdragon 裝置上執行
API 文件
Python API
C# API
C API
Java API
如何操作
安裝
從原始碼構建
構建模型
為 Snapdragon 構建模型
故障排除
遷移
參考
配置參考
介面卡檔案規範
執行提供者
NVIDIA - CUDA
NVIDIA - TensorRT
Intel - OpenVINO™
Intel - oneDNN
Windows - DirectML
Qualcomm - QNN
Android - NNAPI
Apple - CoreML
XNNPACK
AMD - ROCm
AMD - MIGraphX
AMD - Vitis AI
雲 - Azure
社群維護
Arm - ACL
Arm - Arm NN
Apache - TVM
Rockchip - RKNPU
華為 - CANN
新增新提供者
EP 上下文設計
NVIDIA - TensorRT RTX
擴充套件
新增運算子
構建
效能
效能調優
效能分析工具
日誌記錄與跟蹤
記憶體消耗
執行緒管理
I/O 繫結
故障排除
模型最佳化
量化 ONNX 模型
Float16 和混合精度模型
圖最佳化
ORT 模型格式
ORT 模型格式執行時最佳化
Transformers 最佳化器
使用 Olive 進行端到端最佳化
裝置張量
生態系統
適用於 PyTorch 的 Azure 容器 (ACPT)
參考
釋出
相容性
運算子
運算子核心
貢獻運算子
自定義運算子
精簡運算子配置檔案
架構
引用 ONNX Runtime
ONNX Runtime 中的依賴管理
GitHub 上的 ONNX Runtime 文件
ONNX Runtime
安裝
開始使用
教程
API 文件
YouTube
GitHub
教程
使用 C# 進行推理
如何使用 C# 進行推理
目錄
C# 基礎教程
使用 C# 進行 BERT NLP 推理
使用 C# 配置 CUDA 以用於 GPU
使用 C# 和 ResNet50v2 進行影像識別
使用 C# 進行 Stable Diffusion
使用 OpenVINO 在 C# 中進行目標檢測
使用 C# 和 Faster RCNN 進行目標檢測