我們的客戶

聽聽一些使用 ONNX Runtime 的產品和公司的評價

Adobe

透過 ONNX Runtime,Adobe Target 在一個軟體包中實現了靈活性和標準化:客戶可以靈活選擇自己喜歡的框架訓練機器學習模型,並透過標準化大規模穩健地部署這些模型以實現快速推理,從而提供真正、即時的個性化體驗。


-Georgiana Copil,Adobe 高階計算機科學家

AMD

ONNX Runtime 與 AMD 的 ROCm 開放軟體生態系統整合,幫助我們的客戶利用 AMD Instinct GPU 的強大功能,透過跨多個框架的靈活性來加速和擴充套件他們的大型機器學習模型。


-Andrew Dieckmann,AMD 資料中心 GPU 和加速處理部門公司副總裁兼總經理

螞蟻集團

使用 ONNX Runtime,我們提高了許多透過多個深度學習框架訓練的計算機視覺 (CV) 和自然語言處理 (NLP) 模型的推理效能。這些模型是支付寶生產系統的一部分。我們計劃將 ONNX Runtime 作為更廣泛應用中更多深度學習模型(如點選率預測和跨模態預測)的高效能推理後端。


-張小明,螞蟻集團推理團隊負責人

Algoriddim

在 Algoriddim,我們正在 Windows 裝置上使用 ONNX Runtime 來支援我們的 Neural Mix™ 功能,該功能允許使用者即時分離任何歌曲的人聲和樂器,以及我們的 Automix 功能,可實現無縫自動 DJ 混音。ONNX Runtime 在抽象和靈活性之間取得了完美的平衡,並且使用 QNN 執行提供程式使我們能夠利用 Copilot+ PC 上的 NPU 實現無與倫比的推理效能,同時將 CPU 留給其他任務。


-Frederik Seiffert,Algoriddim 首席技術官

ATLAS 實驗

在 CERN 的 ATLAS 實驗中,我們將 ONNX Runtime 的 C++ API 整合到我們的軟體框架 Athena 中。我們目前主要在電子和μ子重建中進行 ONNX 模型的推理。我們受益於其 C++ 相容性、平臺到 ONNX 的轉換器(*Keras、TensorFlow、PyTorch 等)及其執行緒安全性。


-CERN(歐洲核研究組織)ATLAS 實驗團隊

Autodesk

Autodesk Flame 使用 ONNX Runtime 在跨平臺相容性和效能方面具有巨大優勢,為藝術家提供了他們所期望的靈活性和互動性。這使得他們可以直接在 Flame 的創意工具集中使用機器學習模型,從而提高其作品的質量並增強軟體的可擴充套件性。微軟的 ONNX Runtime 團隊在整個開發過程中提供了專業的指導和支援,使我們能夠將人工智慧驅動的創意工具交到尋求高質量 VFX 和後期製作解決方案的藝術家手中。


-Louis Martin,Autodesk Flame 軟體開發高階經理

Bazaarvoice

大規模構建和部署 AI 解決方案到雲端是複雜的。面對海量資料集和效能考量,找到和諧的平衡至關重要。ONNX Runtime 為我們提供了靈活性,可以將用 Python 構建的 scikit-learn 模型打包,將其無伺服器部署到 Node.js 環境,並在雲端以令人印象深刻的效能執行。


-Matthew Leyburn,Bazaarvoice 軟體工程師

Camo

ONNX Runtime 使 Camo Studio 能夠快速準確地提供背景分割和特徵檢測等功能。它與我們現有的模型無縫整合,並允許我們面向任何處理器,包括最新的 NPU,這為我們節省了寶貴的開發時間,並使我們能夠為所有使用者帶來創新功能。我們向任何希望簡化模型部署並釋放其應用程式全部潛力的開發人員推薦 ONNX Runtime。


-Aidan Fitzpatrick,Reincubate 創始人兼執行長

Cephable

ONNX Runtime 允許我們同時針對支援 CPU、GPU 和 NPU 的裝置。使用 ONNX Runtime 和 AI Hub 將模型轉換為 NPU,我們將工程工作量從 30 天減少到 7 天。考慮到目前的技術水平,現在可能只需要 3 天。這使我們能夠為使用者提供尖端效能,最大限度地減少 AI/ML 工作負載在執行其他應用程式時的影響,並留下更多時間專注於功能開發。


-Jon Campbell,Cephable 工程總監

ClearBlade

ClearBlade 將 ONNX Runtime 整合到我們的企業物聯網和邊緣平臺中,使客戶和合作夥伴能夠使用他們想使用的任何行業 AI 工具來構建 AI 模型。透過此解決方案,我們的客戶可以使用 ONNX Runtime Go 語言 API 無縫部署任何模型,以便在遠端位置或工廠車間的裝置上執行!


-Aaron Allsbrook,ClearBlade 首席技術官兼創始人

Deezer

在 Deezer,我們將 ONNX Runtime 用於流媒體服務中由機器學習驅動的音樂推薦功能。ONNX Runtime 的 C API 易於與我們的軟體堆疊整合,使我們能夠以出色的效能執行和部署 Transformer 模型,以應對即時用例。


-Mathieu Morlon,Deezer 軟體工程師

Goodnotes

感謝 ONNX Runtime Web,Goodnotes 無縫實現了“塗抹擦除”功能。這是 Goodnotes 針對 Android、Windows 和 Web 的首個 AI 功能,提供了閃電般的效能和令人難以置信的流暢使用者體驗。它改變了遊戲規則!


-Pedro Gómez,Goodnotes 高階軟體工程師

Graiphic

透過 SOTA,我們開發了第一個完全基於 ONNX 和 ONNX Runtime 的完整生態系統。SOTA 不僅支援 AI 工作負載,還在其核心編排基於圖的計算,從而實現在 AI 和非 AI 領域中模組化、可擴充套件和透明的執行。我們相信 ONNX 不僅僅是一種格式,它是未來圖原生計算的基礎。


-Youssef Menjour,Graiphic 首席技術官兼聯合創始人

Hugging Face

我們使用 ONNX Runtime 輕鬆部署 Hugging Face 模型中心中的數千個最先進的開源模型,並加速 CPU 和 GPU 上 Accelerated Inference API 客戶的私有模型。


-Morgan Funtowicz,Hugging Face 機器學習工程師

Hypefactors

ONNX Runtime 為我們許多自然語言處理 (NLP) 和計算機視覺 (CV) 模型提供支援,這些模型即時處理全球媒體格局。它是我們擴充套件生產工作負載的首選框架,提供從內建量化工具到簡單的 GPU 和 VNNI 加速等重要功能。


-Viet Yen Nguyen,Hypefactors 首席技術官

InFarm

InFarm 提供由機器學習驅動的智慧農業解決方案,在各種硬體上執行計算機視覺模型,包括本地 GPU 叢集、NVIDIA Jetsons 等邊緣計算裝置,以及基於雲的 CPU 和 GPU 叢集。ONNX Runtime 使 InFarm 能夠標準化跨多個團隊生成的模型格式和輸出,以簡化部署,同時在所有硬體目標上提供最佳效能。


-Ashley Walker,InFarm 首席資訊與技術官

英特爾

我們很高興在 OpenVINO™ 的英特爾® 發行版上支援 ONNX Runtime。這加速了英特爾硬體上的機器學習推理,併為開發人員提供了靈活性,可以根據其需求選擇最適合的英特爾硬體組合,從 CPU 到 VPU 或 FPGA。


-Jonathan Ballon,英特爾物聯網事業部副總裁兼總經理

Intelligenza Etica

我們使用多種堆疊和框架,將研發與倫理相結合,在各種市場和受監管行業中整合 AI 模型。透過 ONNX Runtime,我們提供最大的效能和靈活性,使客戶能夠使用他們偏好的技術,從雲端到嵌入式系統。


-Mauro Bennici,Intelligenza Etica AI 架構師和 AI 倫理學家

NVIDIA

ONNX Runtime 使我們的客戶能夠輕鬆地將 NVIDIA TensorRT 強大的最佳化應用於機器學習模型,無論其訓練框架如何,並在 NVIDIA GPU 和邊緣裝置上進行部署。


-Kari Ann Briski,NVIDIA 加速計算軟體和 AI 產品高階總監

Apache OpenNLP

ONNX Runtime 與 Apache OpenNLP 2.0 的整合使得在 Java 生態系統中輕鬆使用最先進的自然語言處理 (NLP) 模型成為可能。對於已經使用 OpenNLP 的庫和應用程式,例如 Apache Lucene 和 Apache Solr,透過 OpenNLP 使用 ONNX Runtime 提供了令人興奮的新可能性。


-Jeff Zemerick,OpenSource Connections 搜尋相關性工程師兼 Apache OpenNLP 專案主席

Oracle

用於 Java 的 ONNX Runtime API 使 Java 開發人員和 Oracle 客戶能夠無縫使用和執行 ONNX 機器學習模型,同時利用 Java 的表達能力、高效能和可擴充套件性。


-Stephen Green,Oracle 機器學習研究組總監

Peakspeed

透過使用通用的模型和程式碼庫,ONNX Runtime 允許 Peakspeed 輕鬆地在平臺之間切換,幫助我們的客戶根據其基礎設施和要求選擇最具成本效益的解決方案。


-Oscar Kramer,Peakspeed 首席地理空間科學家

Pieces.app

ONNX Runtime 為我們提供了一個輕量級的執行時,它專注於效能,同時允許我們的機器學習工程師為手頭的任務選擇最佳框架和模型。


-Brian Lambert,Pieces.app 機器學習工程師

PTW Dosimetry

PTW 的使命是保證放射治療的安全。然而,將 AI 模型從研究帶入臨床可能是一個挑戰。這些是截然不同的軟體和硬體環境。ONNX Runtime 彌合了這一差距,使我們能夠為研究選擇最佳工具,並確保部署到任何環境中都能正常工作。


-Jan Weidner,PTW Dosimetry 研究軟體工程師

Redis

ONNX Runtime 是 RedisAI 獨特能力的基礎,它可以在 Redis 內部無縫執行機器學習和深度學習模型推理。這種整合允許資料科學家在他們首選的機器學習框架(PyTorch、TensorFlow 等)中訓練模型,並從 Redis 提供這些模型以實現低延遲推理。


-Sam Partee,Redis 應用 AI 首席工程師

瑞芯微

在 ONNX Runtime 的支援下,我們的客戶和開發人員可以跨越模型訓練框架的界限,輕鬆地將機器學習模型部署到瑞芯微 NPU 驅動的裝置中。


-陳鋒,瑞芯微高階副總裁

Samtec

我們需要一個執行時引擎來處理從資料科學領域到高效能生產執行時系統的過渡。ONNX Runtime (ORT) 簡直“太好用了”。我以前沒有使用 ORT 的經驗,但我能夠輕鬆地轉換我的模型,並在幾個小時內用多種語言執行推理原型。ORT 將成為我未來可預見的執行時引擎。


-Bill McCrary,Samtec 應用架構師

SAS

ONNX Runtime 和 SAS Event Stream Processing 的獨特結合,透過支援靈活的管道並使開發人員和系統整合商能夠為相同的 AI 模型針對多個硬體平臺,而無需進行捆綁和打包更改,從而改變了遊戲規則。考慮到持續節省的額外構建和測試工作,這一點至關重要。


-Saurabh Mishra,SAS 物聯網產品管理高階經理

Teradata

Teradata 提供了一個高度可擴充套件的框架,可匯入和推理預訓練的機器學習 (ML) 和深度學習 (DL) 模型。ONNX Runtime 使我們能夠擴充套件 Vantage Bring Your Own Model (BYOM) 的功能,併為資料科學家在 Teradata Vantage 生態系統中整合、推理和生產部署 ML 和 DL 模型提供更多選擇。


-Michael Riordan,Teradata Vantage 資料科學與分析產品總監

Topaz Labs

ONNX Runtime 簡單的 C API 和 DirectML 提供程式使 Topaz Labs 僅在幾天內就增加了對 AMD GPU 和 NVIDIA Tensor Cores 的支援。此外,我們的模型在 GPU 上的載入速度比任何其他框架都要快很多倍。即使是擁有約 1 億個引數的大型模型也能在幾秒鐘內載入完成。


-Suraj Raghuraman,Topaz Labs AI 引擎負責人

Unreal Engine

我們選擇 ONNX Runtime 作為 Unreal Engine 的神經網路介面 (NNI) 外掛推理系統的後端,因為它可擴充套件以支援 Unreal Engine 執行的平臺,同時使 ML 從業者能夠在他們選擇的框架中開發 ML 模型。NNI 在 Unreal Engine 中即時評估神經網路,並作為遊戲開發人員使用和部署 ML 模型以解決許多開發挑戰(包括動畫、基於 ML 的 AI、攝像機跟蹤等)的基礎。


-Francisco Vicente Carrasco,Epic Games 研究工程主管

美國農業部,農業研究服務局

在美國農業部,我們在 GuideMaker 中使用 ONNX Runtime,這是我們開發的一個程式,用於設計大規模 CRISPR-Cas 基因編輯實驗所需的引導 RNA 池。ONNX 使我們現有的模型更具互操作性,ONNX Runtime 加快了引導 RNA 結合的預測速度。


-Adam Rivers,美國農業部農業研究服務局計算生物學家

Vespa.ai

ONNX Runtime 大幅提高了 Vespa.ai 評估大型模型的能力,無論是在效能還是我們支援的模型型別方面。


-Lester Solbakken,Vespa.ai 首席工程師

Writer

ONNX Runtime 對我們 Writer 最佳化生產模型非常有幫助。它讓我們能夠部署更強大的模型,同時仍能以客戶期望的延遲向他們交付結果。


-Dave Buchanan,Writer AI 和 NLP 總監

賽靈思

賽靈思很高興微軟宣佈 Vitis™ AI 互操作性和對 ONNX Runtime 的執行時支援,使開發人員能夠將機器學習模型部署到 FPGA IaaS(如 Azure NP 系列 VM 和賽靈思邊緣裝置)進行推理。


-Sudip Nag,賽靈思軟體與人工智慧產品公司副總裁