在 5 月 20 日舉辦的 Build 2025 開發(fā)者大會上,微軟推出全新平臺 Windows AI Foundry,旨在整合本地 AI 開發(fā)工具鏈,推動 Windows 生態(tài)向 “端側(cè)智能” 加速演進。這一平臺通過集成運行時環(huán)境、模型倉庫與開發(fā)工具,為開發(fā)者提供從模型訓練到應用部署的全流程支持。

一、核心架構(gòu):整合運行時與模型生態(tài)

Windows AI Foundry 以 Windows Copilot Runtime 為底座,進一步拓展本地 AI 能力邊界:


  • 多模型兼容:支持從 Azure AI Foundry 引入開源模型,并整合 Ollama、NVIDIA NIMs 等第三方模型目錄。微軟自研的 Foundry Local 模型經(jīng)過硬件優(yōu)化,可在 CPU/GPU/NPU 上高效運行,開發(fā)者通過 “winget” 命令即可快速獲取兼容模型;

  • 開發(fā)工具集:提供即用型 AI API(如計算機視覺、自然語言處理)、模型微調(diào)工具(支持 LoRA 技術(shù))及推理運行時,允許開發(fā)者基于 Phi Silica 等模型進行小參數(shù)微調(diào),提升特定任務性能;

  • 跨硬件適配:依托 Windows ML(基于 DirectML 開發(fā)),自動兼容 AMD、Intel、NVIDIA、高通等芯片架構(gòu),后臺實時更新依賴項,解決硬件迭代帶來的兼容性難題。

二、關(guān)鍵功能:從語義搜索到輕量化部署

平臺推出多項創(chuàng)新功能降低開發(fā)門檻:


  • 語義搜索 API:集成 RAG 技術(shù),支持本地運行智能搜索,開發(fā)者可快速構(gòu)建具備上下文理解能力的搜索系統(tǒng),目前已在 Copilot+ PC 開啟私有預覽;

  • LoRA 技術(shù)支持:作為 Windows App SDK 1.8 實驗功能,LoRA 允許使用自定義數(shù)據(jù)微調(diào)模型,首批支持驍龍 X 系列 NPU,后續(xù)將擴展至 Intel/AMD 的 Copilot+ PC;

  • 低代碼集成:通過 Foundry Local SDK,開發(fā)者可將模型無縫嵌入應用,例如在零售場景中快速部署商品識別功能,或在辦公軟件中實現(xiàn)智能文檔處理。

三、戰(zhàn)略意義:搶占端側(cè) AI 開發(fā)高地

微軟此舉瞄準日益增長的本地化 AI 需求:


  • 數(shù)據(jù)隱私優(yōu)勢:敏感場景(如醫(yī)療、金融)的數(shù)據(jù)處理可在設(shè)備端完成,避免云端傳輸風險;

  • 實時響應能力:端側(cè)推理延遲低于 50 毫秒,適合自動駕駛、工業(yè)控制等對實時性要求高的場景;

  • 生態(tài)協(xié)同效應:與 Azure 云服務形成 “云邊端” 聯(lián)動,企業(yè)可在云端訓練模型、通過 Foundry 在終端部署優(yōu)化版本,降低整體算力成本。

四、行業(yè)影響:推動 AI 開發(fā)普惠化

Gartner 數(shù)據(jù)顯示,2025 年全球 70% 的企業(yè)將采用混合 AI 架構(gòu),Windows AI Foundry 的推出恰逢其時。對于開發(fā)者而言,平臺提供的 “模型即服務” 模式(MaaS)可將 AI 應用開發(fā)周期縮短 60% 以上;對于硬件廠商,微軟正聯(lián)合 AMD、高通等推出 “AI 開發(fā)認證計劃”,確保模型在不同設(shè)備上的性能一致性。


微軟 CEO Satya Nadella 在會上強調(diào):“Windows AI Foundry 不是工具的簡單堆砌,而是要讓每個開發(fā)者都能成為 AI 創(chuàng)新者。” 隨著平臺功能的持續(xù)迭代,Windows 有望從 “操作系統(tǒng)” 升級為 “AI 原生開發(fā)平臺”,重新定義端側(cè)智能的競爭格局。

來【龍頭AI網(wǎng)】了解最新AI資訊!