Phi 3 Mini 4k Instruct GGUF
Phi-3-Mini-4K-Instructは38億パラメータの軽量で最先端のオープンソースモデルで、Phi-3データセットを使用して訓練され、高品質と推論集中特性に重点を置いています。
Downloads 170
Release Time : 4/24/2024
Model Overview
マイクロソフトが開発した軽量オープンソース言語モデルで、高品質なテキスト生成と推論タスクに特化し、4Kのコンテキスト長をサポートします。
Model Features
軽量で効率的
わずか38億パラメータでありながら強力な性能を維持し、リソースが限られた環境での展開に適しています
高品質な推論
精選されたデータセットで訓練され、特に複雑な推論タスクのパフォーマンスに最適化されています
4Kコンテキストサポート
最大4096トークンのコンテキストメモリをサポート
命令最適化
命令追従シナリオに特化して最適化されています
Model Capabilities
テキスト生成
命令理解
コード生成
構造化出力(JSON/XML)
複雑な推論
Use Cases
開発支援
コード生成
自然言語の記述に基づいてコードスニペットを生成
HumanEvalベンチマークテスト59.1点
教育
数学問題解答
数学的推論問題を解決
GSM-8Kベンチマークテスト82.5点
ビジネス分析
構造化レポート生成
非構造化データをJSON/XML形式に変換
JSON構造出力52.3点、XML構造出力49.8点
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98