正在準備搜尋索引...
搜尋索引不可用
ONNX Runtime JavaScript API
ONNX Runtime JavaScript API
InferenceSession
WebNNContextOptions
介面 WebNNContextOptions
表示用於建立 WebNN MLContext 的一組選項。
參見
https://www.w3.org/TR/webnn/#dictdef-mlcontextoptions
interface
WebNNContextOptions
{
deviceType
?:
"cpu"
|
"gpu"
|
"npu"
;
numThreads
?:
number
;
powerPreference
?:
"default"
|
"high-performance"
|
"low-power"
;
}
繼承關係 (
檢視完整
)
WebNNContextOptions
WebNNOptionsWithoutMLContext
索引
屬性
device
Type?
num
Threads?
power
Preference?
屬性
可選
device
Type
device
Type
?:
"cpu"
|
"gpu"
|
"npu"
可選
num
Threads
num
Threads
?:
number
可選
power
Preference
power
Preference
?:
"default"
|
"high-performance"
|
"low-power"
設定
成員可見性
受保護的
私有的
繼承的
外部的
主題
作業系統
淺色
深色
本頁內容
device
Type
num
Threads
power
Preference
ONNX Runtime JavaScript API
Env
InferenceSession
Tensor
ConversionUtils
CpuPinnedConstructorParameters
Env
ExternalDataFileDescription
GpuBufferConstructorParameters
InferenceSession
InferenceSessionFactory
MLTensorConstructorParameters
OnnxModelOptions
OptionResizedDimensions
OptionsDimensions
OptionsFormat
OptionsNormalizationParameters
OptionsTensorDataType
OptionsTensorFormat
OptionsTensorLayout
Tensor
TensorConstructor
載入中...
使用
TypeDoc
生成
表示用於建立 WebNN MLContext 的一組選項。
參見
https://www.w3.org/TR/webnn/#dictdef-mlcontextoptions