微软推出其首款自研AI模型:MAI-Voice-1 秒级生成音频
微软推出其首款自研AI模型:MAI-Voice-1 秒级生成音频,MAI-1-preview剑指Copilot文本场景
IT之家 8 月 29 日消息,周四,微软人工智能部门正式推出其首批两款自研 AI 模型 ——MAI-Voice-1 语音模型与 MAI-1-preview 通用模型。据微软介绍,全新的 MAI-Voice-1 语音模型仅需单块 GPU,就能在 1 秒内生成时长 1 分钟的音频;而 MAI-1-preview 模型则“让用户提前窥见 Copilot 未来功能的发展方向”。
目前,微软已将 MAI-Voice-1 应用于多项功能中:例如在“Copilot Daily”功能里,AI 主持人会通过该模型播报当日热点新闻;同时,它还能生成播客风格的对话内容,帮助用户理解各类话题。
普通用户可在 Copilot Labs 平台亲自体验 MAI-Voice-1:不仅能输入希望 AI 表达的内容,还可自定义语音音色与说话风格。除这款语音模型外,微软此次同步推出的 MAI-1-preview 模型,训练过程动用了约 1.5 万块英伟达 H100 GPU。该模型专为特定需求用户设计,具备遵循指令的能力,可“为日常咨询提供实用回应”。
微软 AI 负责人穆斯塔法・苏莱曼去年在《Decoder》播客某期节目中表示,公司内部研发的 AI 模型并未将企业级应用场景作为核心方向,他解释道:“我的思路是,我们必须打造一款对消费者而言体验极佳的产品,并针对自身应用场景进行深度优化。在广告业务、消费者行为数据等领域,我们拥有海量高预测性、高实用性的数据,因此我的工作重点是构建真正适配‘消费者伙伴’定位的模型。”
据悉,微软 AI 计划将 MAI-1-preview 模型应用于 Copilot 助手的特定文本使用场景(目前 Copilot 主要依赖 OpenAI 的大型语言模型)。同时,该模型已开始在 AI 基准测试平台 LMArena 上进行公开测试。
IT之家注意到,微软 AI 团队在博客文章中写道:“我们对未来发展有着宏大规划。接下来,我们不仅会持续推进技术突破,更相信通过整合一系列针对不同用户需求与应用场景的专业模型,将释放出巨大价值。”
(来源:新浪科技)