💥 Gate 广场活动: #0G发帖赢USDT# 💥
在 Gate 广场发布与 0G 及相关活动(理财 / CandyDrop / 合约交易赛)相关的原创内容,即有机会瓜分 200 USDT 奖励!
📅 活动时间:2025年9月25日 18:00 – 10月2日 24:00 (UTC+8)
📌 相关活动:
理财活动:轻松赚取稳定收益
👉 https://www.gate.com/zh/announcements/article/47290
CandyDrop:参与瓜分 0G
👉 https://www.gate.com/zh/announcements/article/47286
合约交易赛:交易赢大奖
👉 https://www.gate.com/zh/announcements/article/47221
📌 参与方式:
1️⃣ 在 Gate 广场发布原创内容,主题需与 0G 或相关活动 有关
2️⃣ 内容不少于 80 字
3️⃣ 帖子添加话题: #0G发帖赢USDT#
4️⃣ 附上任意活动参与截图
🏆 奖励设置(总奖池 200 USDT):
20 名优秀内容创作者,每人 10 USDT
📄 注意事项:
内容必须原创,禁止抄袭或刷量
获奖者需完成 Gate 广场身份认证
活动最终解释权归 Gate 所有
微软推出在NVIDIA GPU上训练的多模态SLM
詹姆斯·丁
2025年2月26日15:38
微软推出新的Phi SLMs,包括在NVIDIA GPU上训练的多模式Phi-4,通过高效资源使用增强AI能力。
微软宣布了其Phi系列小语言模型(SLMs)的最新添加,包括使用NVIDIA GPU训练的新Phi-4-多模型和Phi-4-mini模型。这一发展标志着语言模型演变中的重要一步,侧重于效率和多功能性,据NVIDIA称。
###小型语言模型的进展
SLM已成为对大型语言模型(LLMs)提出的挑战提出实际解决方案,尽管这些模型具有相当的能力,但它们需要大量的计算资源。SLM旨在在受限环境中高效运行,使其适用于具有有限内存和计算能力的设备上部署。
Microsoft的新Phi-4多模型在能够处理文本、音频和图像等多种数据类型方面特别引人注目。这种能力为自动语音识别、翻译和视觉推理等应用开辟了新的可能性。该模型的训练涉及了512个NVIDIA A100-80GB GPU,历时21天,突显了实现其能力所需的大量计算工作。
###Phi-4多模块和Phi-4迷你
Phi-4-多模型拥有 56 亿个参数,并在自动语音识别方面表现出色,在 Huggingface OpenASR 排行榜上排名第一,字错误率为 6.14%。该成就突显了该模型在提升语音识别技术方面的潜力。
除了 Phi-4-multimodal 外,微软还推出了 Phi-4-mini,这是一款专为聊天应用优化的纯文本模型。Phi-4-mini 具有 38 亿个参数,旨在高效处理长篇内容,提供 128K token 的上下文窗口。其训练涉及 1024 个 NVIDIA A100 80GB GPU,在 14 天内完成,反映了该模型专注于高质量教育数据和代码。
###部署和可访问性
两种模型都可以在Microsoft的Azure AI Foundry上获得,该平台可用于设计、定制和管理人工智能应用程序。用户还可以通过NVIDIA API目录探索这些模型,该目录提供了一个沙盒环境,用于测试和将这些模型集成到各种应用程序中。
英伟达与微软的合作不仅仅局限于训练这些模型。该合作伙伴关系还包括优化软件和像Phi这样的模型,以促进人工智能透明度并支持开源项目。该合作旨在推动人工智能技术在各行业的发展,从医疗保健到生命科学。
欲了解更详细信息,请访问NVIDIA博客。
图片来源:Shutterstock