8月29日周四,微软人工智能部门正式发布了其首批两款自主研发的AI模型:分别是MAI-Voice-1语音模型和MAI-1-preview通用模型。微软方面介绍称,全新的MAI-Voice-1语音模型表现令人瞩目,它仅需一块GPU,便能在短短1秒内生成长达1分钟的音频内容。与此同时,MAI-1-preview模型则被定位为“让用户提前领略Copilot未来功能发展方向”的关键一步。

目前,MAI-Voice-1模型已经成功应用于微软的多项功能之中。例如,在“Copilot Daily”功能里,AI主持人能够借助这款模型播报每日热门新闻;此外,它还能生成富有播客风格的对话内容,有效帮助用户深入理解各类复杂话题。
普通用户现在可以通过Copilot Labs平台亲身体验MAI-Voice-1的强大功能。在这里,用户不仅可以输入希望AI表达的文本内容,还能根据个人喜好自定义语音的音色和说话风格,实现高度个性化的交互。除了这款引人注目的语音模型,微软此次还同步推出了MAI-1-preview模型,其训练过程堪称庞大,动用了大约1.5万块英伟达H100 GPU。这款通用模型专为满足特定用户的需求而设计,尤其擅长遵循指令,能够“为日常咨询提供切实可行的回应”。
微软AI部门负责人穆斯塔法·苏莱曼去年在《Decoder》播客的一次节目中曾透露,公司内部研发的AI模型并未把企业级应用场景作为主要重心。他进一步阐释了自己的理念:“我的想法是,我们必须倾力打造一款能为消费者带来极致体验的产品,并围绕我们自身的应用场景进行深度优化。在广告业务、消费者行为数据等关键领域,我们坐拥海量具备高预测性和高实用性的数据资源,因此,我的工作重心始终是构建真正符合‘消费者伙伴’定位的AI模型。”
据了解,微软AI计划将MAI-1-preview模型整合到Copilot助手的特定文本使用场景中,值得注意的是,目前Copilot主要还是依赖OpenAI的大型语言模型。与此同时,这款MAI-1-preview模型已经在AI基准测试平台LMArena上启动了公开测试,以验证其性能和效果。
微软AI团队在其官方博客文章中也描绘了未来的宏伟蓝图。他们写道:“我们对未来的发展抱有雄心勃勃的规划。接下来,我们不仅将持续推动技术上的突破,更坚信通过整合一系列专为满足不同用户需求和应用场景的专业模型,必将释放出无可估量的巨大价值。”
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述