# 構造化出力

Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instructは38億パラメータの軽量で最先端のオープンソースモデルで、Phi-3データセットを使用して訓練され、高品質と推論集中特性に重点を置いています。
大規模言語モデル
P
brittlewis12
170
1
Qwen2.5 CoderX 7B V0.5
Apache-2.0
Qwen2.5をファインチューニングした専門的なコード生成モデルで、構造が複雑で論理的なコードを詳細な説明付きで生成するのに優れています
大規模言語モデル Transformers 英語
Q
oscar128372
288
2
Typhoon Ocr 7b
タイ・英語バイリンガルの現実世界文書解析のために特別に設計された視覚言語モデル、Qwen2.5-VL-Instructionフレームワークベース
画像生成テキスト Transformers 複数言語対応
T
scb10x
126
9
Qwen3 4B NexusPrime
Apache-2.0
高性能で多分野にわたるAIモデルで、MergeKitのModel Stock融合技術を用いて構築され、複数の最適化されたQwen3-4Bモデルを統合しています。構造化出力や技術応用シナリオにおいて優れた推論、プログラミング、多段階問題解決能力を発揮します。
大規模言語モデル Transformers 英語
Q
ZeroXClem
24
3
Monomer 24b Preview E1
モノマーモデル(Monomer)は、中英シーンにおける計画、設計、執筆タスクに特化した一連の推論言語モデル(RLMs)の集合で、明確なステップバイステップの推論軌跡を提供します。
大規模言語モデル Transformers 複数言語対応
M
zake7749
41
4
Qwen2.5 0.5B Instruct GGUF
Apache-2.0
Qwen2.5は通義千問大モデルシリーズの最新バージョンで、0.5Bパラメータの命令微調整モデルであり、29以上の言語と超長テキスト生成をサポートします。
大規模言語モデル 英語
Q
Mungert
462
4
Qwen2.5 1.5B Instruct GGUF
Apache-2.0
Qwen2.5はQwen大規模言語モデルの最新シリーズで、15億パラメータ規模の命令調整モデルであり、多言語と長文生成をサポートします。
大規模言語モデル 英語
Q
Mungert
556
4
La Superba 14B Y.2
Apache-2.0
Qwen 2.5 14Bアーキテクチャに基づいて構築された次世代言語モデルで、数学推論、プログラミング、一般的な論理タスクに最適化されています。
大規模言語モデル Transformers 複数言語対応
L
prithivMLmods
19
2
Sombrero Opus 14B Sm5
Apache-2.0
Qwen 2.5 14Bモーダルアーキテクチャに基づき設計され、コーディング効率と計算推論能力を向上させたモデル
大規模言語モデル Transformers 複数言語対応
S
prithivMLmods
43
2
Condor Opus 14B Exp
Apache-2.0
Condor-Opus-14B-Exp は Qwen 2.5 14B モーダルアーキテクチャに基づいて設計された大規模言語モデルで、推論能力の強化に重点を置き、多言語と長いコンテキスト処理をサポートします。
大規模言語モデル Transformers 複数言語対応
C
prithivMLmods
99
2
Deephermes 3 Llama 3 3B Preview
DeepHermes 3 プレビュー版はNous ResearchのフラッグシップHermesシリーズ大規模言語モデルの最新バージョンで、推論と通常応答モードを組み合わせ、注釈、判断、関数呼び出し機能を改善しました。
大規模言語モデル Transformers 英語
D
NousResearch
4,285
28
O1 Gigachat 20b A3b Gguf
MIT
GigaChat-20B-A3Bモデルを基に訓練されたLoRAアダプターで、ロシア語の論理的思考プロセスをシミュレートするために特別に設計
大規模言語モデル 複数言語対応
O
evilfreelancer
152
1
Minithinky V2 1B Llama 3.2
MiniThinky 1BはLlama-3.2-1B-InstructをファインチューニングしたAIアシスタントモデルで、回答前に思考プロセスを表示する特徴があります
大規模言語モデル Transformers
M
ngxson
260
40
Hermes 3 Llama 3.2 3B Abliterated
Hermes 3 3BはNous ResearchのHermesシリーズLLMの新たな小型ながら強力なメンバーで、LLMとユーザーのアラインメントに焦点を当て、エンドユーザーに強力なガイダンスと制御能力を提供します。
大規模言語モデル Transformers 英語
H
lunahr
33
5
Xlam 7b Fc R
xLAM-7b-fc-r は Salesforce が提供する関数呼び出し最適化を目的とした7Bパラメータの大規模言語モデルで、入力クエリと利用可能なAPIに基づいて迅速かつ正確で構造化された応答を提供します。
大規模言語モデル Transformers 英語
X
Salesforce
114
78
Xlam 1b Fc R
xLAM-1b-fc-r は Salesforce が提供する関数呼び出し最適化用の小型大規模動作モデル(LAM)で、パラメータ数は1.35B、個人デバイスへのデプロイに適しています。
大規模言語モデル Transformers 英語
X
Salesforce
413
57
Medichat V2 Llama3 8B
その他
Llama3-8Bを改良した医療対話モデルで、医学Q&Aと臨床テキスト処理に最適化されています
大規模言語モデル Transformers 英語
M
sethuiyer
21
7
Phi 3 Mini 4k Instruct
MIT
Phi-3 Mini-4K-Instructは38億パラメータを持つ軽量で最先端のオープンソースモデルで、高品質かつ密度の高い推論特性に特に重点を置いています。
大規模言語モデル Transformers 複数言語対応
P
microsoft
685.17k
1,176
Meta Llama 3 8B Instruct Function Calling Json Mode
このモデルはmeta-llama/Meta-Llama-3-8B-Instructを基にファインチューニングされ、関数呼び出しとJSONモードに特化しています。
大規模言語モデル Transformers 英語
M
hiieu
188
75
Rgb Language Cap
MIT
これは空間認識能力を備えた視覚言語モデルで、画像内の物体間の空間関係を認識し記述テキストを生成できます。
画像生成テキスト Transformers 英語
R
sadassa17
15
0
Yayi Uie
Apache-2.0
雅意IE大型モデルは、百万レベルの人手でアノテーションされた高品質の情報抽出データに基づいて命令微調整を行った統一大型モデルで、一般分野および複数の垂直分野の情報抽出タスクをサポートします。
大規模言語モデル Transformers
Y
wenge-research
108
27
Fava Model
MIT
FAVAはテキストエラーを検証するモデルで、参考文献に基づいてテキスト内のエラーを識別し修正提案を提供できます。
大規模言語モデル Transformers
F
fava-uw
186
16
Llama2 MedTuned 7b
Apache-2.0
Llama2 7Bモデルを基に命令チューニングを行った生物医学分野専用モデル
大規模言語モデル Transformers
L
nlpie
444
11
Gpt Neo 1.3B Emailgen
Apache-2.0
EleutherAI/gpt - neo - 1.3Bをベースに微調整された電子メール生成モデルで、短い指示に基づいて正式または非正式なメール内容を生成するのに長けています。
大規模言語モデル Transformers
G
postbot
43
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase