微软推出在NVIDIA GPU上训练的多模态SLM

robot
摘要生成中

詹姆斯·丁

2025年2月26日15:38

微软推出新的Phi SLMs,包括在NVIDIA GPU上训练的多模式Phi-4,通过高效资源使用增强AI能力。

Microsoft 介绍在 NVIDIA GPU 上训练的多模态 SLM

微软宣布了其Phi系列小语言模型(SLMs)的最新添加,包括使用NVIDIA GPU训练的新Phi-4-多模型和Phi-4-mini模型。这一发展标志着语言模型演变中的重要一步,侧重于效率和多功能性,据NVIDIA称。

###小型语言模型的进展

SLM已成为对大型语言模型(LLMs)提出的挑战提出实际解决方案,尽管这些模型具有相当的能力,但它们需要大量的计算资源。SLM旨在在受限环境中高效运行,使其适用于具有有限内存和计算能力的设备上部署。

Microsoft的新Phi-4多模型在能够处理文本、音频和图像等多种数据类型方面特别引人注目。这种能力为自动语音识别、翻译和视觉推理等应用开辟了新的可能性。该模型的训练涉及了512个NVIDIA A100-80GB GPU,历时21天,突显了实现其能力所需的大量计算工作。

###Phi-4多模块和Phi-4迷你

Phi-4-多模型拥有 56 亿个参数,并在自动语音识别方面表现出色,在 Huggingface OpenASR 排行榜上排名第一,字错误率为 6.14%。该成就突显了该模型在提升语音识别技术方面的潜力。

除了 Phi-4-multimodal 外,微软还推出了 Phi-4-mini,这是一款专为聊天应用优化的纯文本模型。Phi-4-mini 具有 38 亿个参数,旨在高效处理长篇内容,提供 128K token 的上下文窗口。其训练涉及 1024 个 NVIDIA A100 80GB GPU,在 14 天内完成,反映了该模型专注于高质量教育数据和代码。

###部署和可访问性

两种模型都可以在Microsoft的Azure AI Foundry上获得,该平台可用于设计、定制和管理人工智能应用程序。用户还可以通过NVIDIA API目录探索这些模型,该目录提供了一个沙盒环境,用于测试和将这些模型集成到各种应用程序中。

英伟达与微软的合作不仅仅局限于训练这些模型。该合作伙伴关系还包括优化软件和像Phi这样的模型,以促进人工智能透明度并支持开源项目。该合作旨在推动人工智能技术在各行业的发展,从医疗保健到生命科学。

欲了解更详细信息,请访问NVIDIA博客。

图片来源:Shutterstock

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)