Phi-3系列包含三个规模的模型,该模型经过了一个后期培训过程,其中包括指导遵循和安全措施的监督微调和直接偏好优化。当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3-Medium-128k-Instruction在参数不到130亿的模型中展示了稳健和最先进的性能。
这三个规模的模型分别称为:
Phi-3-Mini:
4K模型:该模型经过了严格的增强过程,结合了监督微调和直接偏好优化,以确保准确遵守指令和稳健的安全措施。当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3 Mini-4K-Instruction在参数不到130亿的模型中展示了稳健和最先进的性能。
128K模型:Phi-3 Mini-128K-Instruction是一个3.8B参数、轻量级、最先进的开放模型,建立在用于Phi-2的数据集(合成数据和过滤网站)上,重点关注非常高质量、推理密集的数据。该型号属于Phi-3型号系列,Mini版本有两种变体4K和128K,这是它可以支持的上下文长度(以令牌为单位)。
模型信息:Azure AI | Phi-3-Mini 4K,Azure AI | Phi-3-Mini 128K
Phi-3-Medium:
4K 模型:该模型经过了一个后期培训过程,其中包括指导遵循和安全措施的监督微调和直接偏好优化。当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3-Medium-4K-Instruction在参数不到130亿的模型中表现出了稳健和最先进的性能。
128K模型:Phi-3-Medium-128K-Instruction是一个14B参数、轻量级、最先进的开放模型,使用Phi-3数据集进行训练,包括合成数据和过滤后的公开网站数据,重点关注高质量和推理密集的特性。该模型支持128K上下文长度(以令牌为单位)。
模型信息:Azure AI | Phi-3-Medium 4K,Azure AI | Phi-3-Medium 128K
Phi-3-Small:
8K模型:Phi-3-Small-8K-Instruction是一个7B参数、轻量级、最先进的开放模型,使用Phi-3数据集进行训练,包括合成数据和过滤后的公开可用网站数据,重点关注高质量和推理密集的属性。该模型支持8K上下文长度(以令牌为单位)。
128K模型:Phi-3-Small-128K-Instruction是一个7B参数、轻量级、最先进的开放模型,使用Phi-3数据集进行训练,包括合成数据和过滤后的公开可用网站数据,重点关注高质量和推理密集的属性。该模型支持128K上下文长度(以令牌为单位)。
模型信息:Azure AI | Phi-3-Small 8K,Azure AI | Phi-3-Small 128K
Phi-3微软博客:Introducing Phi-3: Redefining what's possible with SLMs | Microsoft Azure Blog