微軟人工智能部門于周四正式推出首批兩款自研AI模型——MAI-Voice-1語音模型與MAI-1-preview通用模型。MAI-Voice-1僅需單塊GPU,1秒內(nèi)可生成時長1分鐘的音頻,已應用于“Copilot Daily”功能,AI主持人通過該模型播報當日熱點新聞,還能生成播客風格的對話內(nèi)容。普通用戶可在Copilot Labs平臺體驗MAI-Voice-1,自定義語音音色與說話風格。MAI-1-preview模型訓練動用約1.5萬塊英偉達H100 GPU,專為特定需求用戶設計,具備遵循指令的能力,可為日常咨詢提供實用回應。該模型將應用于Copilot助手的特定文本使用場景,目前Copilot主要依賴OpenAI的大型語言模型。MAI-1-preview已在AI基準測試平臺LMArena上進行公開測試。(三言科技)