微软将 OpenAI o3 和 o4-mini 模型引入 Azure 和 GitHub
今天早些时候,OpenAI发布了其最新的推理模型 o3 和 o4-mini。与之前的 o1 和 o3-mini 相比,这些新模型的性能显著提升。微软今日宣布, o3 和 o4-mini 模型已在 Azure AI Foundry 的 Azure OpenAI 服务上线。
o3 模型的定价为每百万输入词元 10 美元,每百万输出词元 40 美元。o4-mini 模型的定价为每百万输入词元 1.10 美元,每百万输出词元 4.40 美元。
这两个新模型现在都具备视觉功能,支持涉及图像输入的应用。Responses API 和 Chat Completions API 均支持视觉分析功能。这两个推理模型首次提供完整的工具支持和并行工具调用。
除了这些新的推理模型之外,Azure OpenAI 服务现在在 Azure AI Foundry 上的东部 US2 区域推出了新的音频模型:GPT-4o-Transcribe、GPT-4o-Mini-Transcribe 和 GPT-4o-Mini-TTS。
微软 GitHub今日宣布,o3 和 o4-mini 型号现已在 GitHub Copilot 和 GitHub Models 中推出。o4-mini 型号现已推广至所有付费 GitHub Copilot 套餐,o3 型号则推广至 Enterprise 和 Pro+ 套餐。
部署完成后,用户可以通过 Visual Studio Code 中的模型选择器以及github.com上的 GitHub Copilot Chat 选择这些新模型。对于 Copilot Enterprise 用户,管理员必须通过 Copilot 设置中的新策略启用对这些新模型的访问。
新的 o3 和 o4-mini 模型也可在 GitHub Models 上获取。这将使开发者能够使用这些模型轻松探索、构建和部署 AI 功能。开发者还可以尝试这些模型以及微软的其他模型。和其他提供商。
踩一下[0]
顶一下[0]