Phi-3-mini-4k-instruct-onnx

Phi-3 Mini 量化ONNX模型,支持多硬件平台加速推理

优质新品编程自然语言处理生成式AI模型
Phi-3 Mini是一款轻量级的最先进的开源大模型,构建于用于Phi-2的合成数据和过滤网站数据之上,致力于提供极高质量、推理密集型的数据。该模型经过了严格的增强过程,结合了监督式微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。该仓库提供了Phi-3 Mini的优化ONNX版本,可通过ONNX Runtime在CPU和GPU上进行加速推理,支持服务器、Windows、Linux、Mac等多种平台,并针对每个平台提供最佳精度配置。ONNX Runtime的DirectML支持还可让开发人员在AMD、英特尔和NVIDIA GPU驱动的Windows设备上实现大规模硬件加速。
打开网站

Phi-3-mini-4k-instruct-onnx 最新流量情况

月总访问量

19075321

跳出率

45.07%

平均页面访问数

5.5

平均访问时长

00:05:32

Phi-3-mini-4k-instruct-onnx 访问量趋势

Phi-3-mini-4k-instruct-onnx 访问地理位置分布

Phi-3-mini-4k-instruct-onnx 流量来源

Phi-3-mini-4k-instruct-onnx 替代品