一、核心架構(gòu):整合運行時與模型生態(tài)
多模型兼容:支持從 Azure AI Foundry 引入開源模型,并整合 Ollama、NVIDIA NIMs 等第三方模型目錄。微軟自研的 Foundry Local 模型經(jīng)過硬件優(yōu)化,可在 CPU/GPU/NPU 上高效運行,開發(fā)者通過 “winget” 命令即可快速獲取兼容模型;
開發(fā)工具集:提供即用型 AI API(如計算機視覺、自然語言處理)、模型微調(diào)工具(支持 LoRA 技術(shù))及推理運行時,允許開發(fā)者基于 Phi Silica 等模型進行小參數(shù)微調(diào),提升特定任務性能;
跨硬件適配:依托 Windows ML(基于 DirectML 開發(fā)),自動兼容 AMD、Intel、NVIDIA、高通等芯片架構(gòu),后臺實時更新依賴項,解決硬件迭代帶來的兼容性難題。
二、關(guān)鍵功能:從語義搜索到輕量化部署
語義搜索 API:集成 RAG 技術(shù),支持本地運行智能搜索,開發(fā)者可快速構(gòu)建具備上下文理解能力的搜索系統(tǒng),目前已在 Copilot+ PC 開啟私有預覽;
LoRA 技術(shù)支持:作為 Windows App SDK 1.8 實驗功能,LoRA 允許使用自定義數(shù)據(jù)微調(diào)模型,首批支持驍龍 X 系列 NPU,后續(xù)將擴展至 Intel/AMD 的 Copilot+ PC;
低代碼集成:通過 Foundry Local SDK,開發(fā)者可將模型無縫嵌入應用,例如在零售場景中快速部署商品識別功能,或在辦公軟件中實現(xiàn)智能文檔處理。
三、戰(zhàn)略意義:搶占端側(cè) AI 開發(fā)高地
數(shù)據(jù)隱私優(yōu)勢:敏感場景(如醫(yī)療、金融)的數(shù)據(jù)處理可在設(shè)備端完成,避免云端傳輸風險;
實時響應能力:端側(cè)推理延遲低于 50 毫秒,適合自動駕駛、工業(yè)控制等對實時性要求高的場景;
生態(tài)協(xié)同效應:與 Azure 云服務形成 “云邊端” 聯(lián)動,企業(yè)可在云端訓練模型、通過 Foundry 在終端部署優(yōu)化版本,降低整體算力成本。
四、行業(yè)影響:推動 AI 開發(fā)普惠化
來【龍頭AI網(wǎng)】了解最新AI資訊!
暫無評論
發(fā)表評論