AI 资源精选
  首页 >大语言模型 >Phi-3
访问数:309
Phi-3

厂家:Microsoft

简介:

Phi-3是微软发布的系列小语言模型。包含Phi-3-Mini,Phi-3-Small,Phi-3-Medium三个版本。

  详细介绍 - Phi-3

Phi-3系列包含三个规模的模型,该模型经过了一个后期培训过程,其中包括指导遵循和安全措施的监督微调和直接偏好优化。当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3-Medium-128k-Instruction在参数不到130亿的模型中展示了稳健和最先进的性能。


这三个规模的模型分别称为:

Phi-3-Mini:

4K模型:该模型经过了严格的增强过程,结合了监督微调和直接偏好优化,以确保准确遵守指令和稳健的安全措施。当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3 Mini-4K-Instruction在参数不到130亿的模型中展示了稳健和最先进的性能。

128K模型:Phi-3 Mini-128K-Instruction是一个3.8B参数、轻量级、最先进的开放模型,建立在用于Phi-2的数据集(合成数据和过滤网站)上,重点关注非常高质量、推理密集的数据。该型号属于Phi-3型号系列,Mini版本有两种变体4K和128K,这是它可以支持的上下文长度(以令牌为单位)。

模型信息:Azure AI | Phi-3-Mini 4KAzure AI | Phi-3-Mini 128K


Phi-3-Medium:

4K 模型:该模型经过了一个后期培训过程,其中包括指导遵循和安全措施的监督微调和直接偏好优化。当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3-Medium-4K-Instruction在参数不到130亿的模型中表现出了稳健和最先进的性能。

128K模型:Phi-3-Medium-128K-Instruction是一个14B参数、轻量级、最先进的开放模型,使用Phi-3数据集进行训练,包括合成数据和过滤后的公开网站数据,重点关注高质量和推理密集的特性。该模型支持128K上下文长度(以令牌为单位)。

模型信息:Azure AI | Phi-3-Medium 4KAzure AI | Phi-3-Medium 128K


Phi-3-Small:

8K模型:Phi-3-Small-8K-Instruction是一个7B参数、轻量级、最先进的开放模型,使用Phi-3数据集进行训练,包括合成数据和过滤后的公开可用网站数据,重点关注高质量和推理密集的属性。该模型支持8K上下文长度(以令牌为单位)。

128K模型:Phi-3-Small-128K-Instruction是一个7B参数、轻量级、最先进的开放模型,使用Phi-3数据集进行训练,包括合成数据和过滤后的公开可用网站数据,重点关注高质量和推理密集的属性。该模型支持128K上下文长度(以令牌为单位)。

模型信息:Azure AI | Phi-3-Small 8KAzure AI | Phi-3-Small 128K


Phi-3微软博客:Introducing Phi-3: Redefining what's possible with SLMs | Microsoft Azure Blog


--文 by AixTong.com--
相关资讯 / AI资源