Inference Engine 推理引擎通過 AppCenter 交付,可一鍵完成云端部署,并提供應(yīng)用全生命周期管理能力(創(chuàng)建、擴容、監(jiān)控、健康監(jiān)測等),開發(fā)者僅需上傳模型即可快速擁有生產(chǎn)環(huán)境可用的 AI 推理引擎。
Inference Engine 推理引擎通過 AppCenter 交付,可一鍵完成云端部署,并提供應(yīng)用全生命周期管理能力(創(chuàng)建、擴容、監(jiān)控、健康監(jiān)測等),開發(fā)者僅需上傳模型即可快速擁有生產(chǎn)環(huán)境可用的 AI 推理引擎。
集成針對 Intel CPU 優(yōu)化的 CPU版 Tensorflow Serving ,未來還將陸續(xù)支持 ONNX Runtime / OpenVINO 等主流推理框架,助力用戶快速部署機器/深度學(xué)習(xí)推理環(huán)境。
支持使用 GPU 或僅使用 CPU 進(jìn)行機器/深度學(xué)習(xí)推理,同時可根據(jù)自身需求選擇單節(jié)點或分布式部署模式。
Inference Engine 推理引擎 CPU 版基于第二代 Intel 至強可擴展處理器 ( 代號CascadeLake ) ,其采用了 Intel DeepLearning Boost VNNI 技術(shù),AI 推理性能與上一代型號 CPU 相?提升高達(dá) 100% 。不同于訓(xùn)練階段,配合針對 CPU 優(yōu)化的推理框架,CPU 可以在推理環(huán)節(jié)發(fā)揮更重要作用,與 GPU 相比可以為用戶提供更低成本選擇。
支持本地磁盤存儲、對象存儲以及兼容 S3 協(xié)議的 MinIO 私有對象存儲等多種存儲方式存儲模型。集成對象存儲命令行工具,通過配置對象存儲相關(guān)參數(shù),可便捷地從對象存儲中獲取模型,完成推理。
支持單模型服務(wù)節(jié)點+本地模型存儲、多模型服務(wù)節(jié)點+私有對象存儲模型庫 ( MinIO 對象存儲 )、多模型服務(wù)節(jié)點+公有云對象存儲模型庫 ( QingCloud 對象存儲或其他兼容 S3 協(xié)議的公有云對象存儲) 等多種部署方式。
支持按需付費、包月、包年計費模式,為用戶提供更加全面和靈活的成本管理支持。
Inference Engine 支持按需付費、包月、包年計費模式,為用戶提供更加全面和靈活的成本管理支持。
請選擇區(qū)域