Finance Llama 8B
Apache-2.0
Llama 3.1 8Bをファインチューニングした金融専門モデル、金融推論、Q&A、マルチターン対話に優れる
大規模言語モデル
Transformers 英語

F
tarun7r
155
2
Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 は Kakao Corp によって開発された 8B パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
K
DevQuasar
483
1
Qwq 32B ArliAI RpR V4
Apache-2.0
QwQ-32B-ArliAI-RpR-v4はArliAIが提供する高性能なロールプレイとクリエイティブライティング向けモデルで、QwQ-32Bをファインチューニングし、反復を減らし創造的な出力を向上させることに重点を置いています。
大規模言語モデル
Transformers 英語

Q
ArliAI
240
16
Gemma 3 27b It 4bit DWQ
これはGoogle Gemma 3 27B ITモデルを変換した4ビット量子化バージョンで、MLXフレームワーク向けに最適化されています。
大規模言語モデル
G
mlx-community
102
1
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-InstructはAllenAIが開発した10億パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
220
1
Qwen3 4B GGUF
Apache-2.0
Qwen3-4BはQwen3-4B-Baseを基にしたGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
Mungert
1,507
7
Llama Xlam 2 8b Fc R GGUF
Salesforceが開発した8Bパラメータの大型アクションモデル(LAM)。ユーザーの意図を実行可能なアクションに変換することに特化しており、マルチターン対話やツール使用において優れた性能を発揮します。
大規模言語モデル 英語
L
eaddario
264
1
Deepthink 1.5B Open PRM Q8 0 GGUF
Apache-2.0
Deepthink-1.5B-Open-PRMは1.5Bパラメータのオープンソース言語モデルで、llama.cppで使用できるようGGUF形式に変換されています。
大規模言語モデル 英語
D
prithivMLmods
46
2
Deepseek R1 Distill Qwen 7B
DeepSeek-R1-Distill-Qwen-7B は deepseek-ai によってリリースされた蒸留版大規模言語モデルで、Qwen-7B アーキテクチャに基づいており、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

D
mlx-community
1,045
4
GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414はTHUDMチームによって開発された大規模言語モデルで、GLMアーキテクチャに基づいており、様々なテキスト生成タスクに適しています。
大規模言語モデル
G
owentruong
36
2
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1はGemma-2-9bを基に開発されたトルコ語テキスト生成モデルで、継続的な事前学習、教師あり微調整(SFT)、直接選好最適化(DPO)、およびモデル統合技術によって最適化されています。
大規模言語モデル
Safetensors
T
ytu-ce-cosmos
167
18
Bielik 4.5B V3.0 Instruct
Apache-2.0
Bielik-4.5B-v3-Instructは46億パラメータを持つポーランド語生成テキストモデルで、Bielik-4.5B-v3を基に命令ファインチューニングされており、優れたポーランド語理解と処理能力を示します。
大規模言語モデル
Transformers その他

B
speakleash
1,121
13
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414はTHUDMによって開発された大規模言語モデルで、320億のパラメータを持ち、さまざまなテキスト生成タスクに適しています。
大規模言語モデル
T
DevQuasar
13.15k
5
Unt 8b
Apache-2.0
ラクダモデルはトランスフォーマーアーキテクチャに基づくテキスト生成モデルで、アゼルバイジャン語をサポートし、強化学習を用いて訓練されています。
大規模言語モデル
Transformers その他

U
omar07ibrahim
33
2
Qwen2.5 1.5B Instruct
Apache-2.0
Gensyn RL Swarm専用に設計された15億パラメータの命令微調整モデルで、ピアツーピア強化学習によるローカル微調整をサポート
大規模言語モデル
Transformers 英語

Q
Gensyn
2.1M
4
Qwen2.5 14B Dpo It Ties
Qwen2.5-14BモデルをベースにTIES手法で融合した強化版で、命令追従と対話最適化に特化
大規模言語モデル
Transformers

Q
mergekit-community
30
2
Allura Org Gemma 3 Glitter 4B GGUF
allura-org/Gemma-3-Glitter-4Bを変換したGGUF形式モデルファイル、imatrix量子化で性能を最適化
大規模言語モデル 英語
A
ArtusDev
69
1
Doge 320M Instruct
Apache-2.0
Doge 320M 指導版は動的マスクアテンションを基にした軽量言語モデルで、教師ありファインチューニング(SFT)と直接選好最適化(DPO)で訓練され、質問応答や対話タスクに適しています。
大規模言語モデル
Transformers 英語

D
SmallDoge
12.61k
3
Deepseek Ai.deepseek V3 0324 GGUF
DeepSeek-V3-0324は、高品質なテキスト生成能力を提供することを目的とした、テキスト生成タスクに特化した強力な基盤モデルです。
大規模言語モデル
D
DevQuasar
2,850
2
Qwq 32B NF4
Apache-2.0
これはQwen/QwQ-32Bモデルの4ビット量子化バージョンで、BitsAndBytesライブラリを使用して最適化されており、リソースが制限された環境でのテキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

Q
ginipick
150
27
Orpheus 3b 0.1 Ft Q8 0 GGUF
Apache-2.0
このモデルはcanopylabs/orpheus-3b-0.1-ftから変換されたGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
O
PkmX
406
2
Mlabonne Gemma 3 12b It Abliterated GGUF
mlabonne/gemma-3-12b-it-abliteratedモデルを基にした量子化バージョンで、llama.cppを使用してimatrix量子化を行い、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
7,951
6
Qwen2.5 Bakeneko 32b Instruct V2
Apache-2.0
Qwen2.5 Bakeneko 32Bをベースとした命令ファインチューニングバリアントで、Chat VectorとORPO最適化により命令追従能力を強化し、日本語MT-Benchで優れた性能を発揮します。
大規模言語モデル
Transformers 日本語

Q
rinna
140
6
Gemma 3 27b Pt Q4 K M GGUF
このモデルはGoogleのgemma-3-27b-ptモデルをllama.cppでGGUF形式に変換したバージョンで、ローカル推論タスクに適しています。
大規模言語モデル
G
deltanym
30
1
Gemma 3 4b It Q8 0 GGUF
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカルデプロイと推論に適しています。
大規模言語モデル
G
NikolayKozloff
56
2
Qwq Bakeneko 32b Gguf
Apache-2.0
rinna/qwq-bakeneko-32bをベースにllama.cppで量子化した日本語対話モデルで、llama.cppベースの多数のアプリケーションと互換性があります
大規模言語モデル 日本語
Q
rinna
1,370
6
Gemma 3 12b It GGUF
Gemma-3-12b-it は Google が開発した大規模言語モデルで、transformer アーキテクチャに基づき、テキスト生成タスクに特化しています。
大規模言語モデル
G
second-state
583
1
Thedrummer Gemmasutra 9B V1.1 GGUF
その他
これはTheDrummer/Gemmasutra-9B-v1.1モデルを基にした量子化バージョンで、llama.cppを使用して量子化処理されており、テキスト生成タスクに適しています。
大規模言語モデル
T
bartowski
1,198
6
Dorna2 Llama3.1 8B Instruct
Dorna2-Llama3.1-8B-InstructはPart AIが開発したMeta Llama 3.1 Instructベースの80億パラメータ大規模言語モデルで、ペルシャ語に特化して最適化されています。
大規模言語モデル
Transformers 複数言語対応

D
PartAI
844
16
Calme 3.1 Instruct 78b
その他
calme-3.1-instruct-78bはQwen2.5-72Bを基にした高度な反復バージョンで、自己統合と微調整により能力を強化した汎用領域大規模言語モデルです
大規模言語モデル
Transformers 英語

C
MaziyarPanahi
74
6
Llama 3.1 Nemotron 70B Instruct HF
NVIDIAがカスタマイズした大規模言語モデルで、大規模言語モデルがユーザーのクエリに対して生成する返答の有用性を向上させることを目的としています。
大規模言語モデル
Transformers 英語

L
nvidia
29.98k
2,033
Llama 3.1 8b ITA
Meta-Llama-3.1-8B-Instructを基にイタリア語サポートを最適化した大規模言語モデル
大規模言語モデル
Transformers 複数言語対応

L
DeepMount00
6,719
11
Cere Llama 3.1 8B Tr
Llama3.1 8B大規模言語モデルを基にトルコ語向けに最適化したファインチューニング版、トレーニングデータは高品質なトルコ語命令セットから取得
大規模言語モデル
Transformers その他

C
CerebrumTech
41
3
Gemma 2 27b It Q8 0 GGUF
これはGoogle Gemma 2Bモデルを変換したGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル
G
KimChen
471
2
Llama 3 ELYZA JP 8B
ELYZA社が訓練した大規模言語モデルで、Meta-Llama-3-8B-Instructを基に日本語能力を強化
大規模言語モデル
Transformers 複数言語対応

L
elyza
13.52k
113
Llama 3 ChocoLlama 8B Instruct
Llama-3-8Bをベースとしたオランダ語命令最適化大規模モデル。複数のオランダ語命令データセットでSFTとDPOによるファインチューニングを実施
大規模言語モデル
Transformers その他

L
ChocoLlama
268
6
Cere Llama 3 8b Tr
Llama3 8b大規模言語モデルを基にトルコ語向けに最適化した微調整バージョンで、高品質なトルコ語命令セットから訓練データを取得
大規模言語モデル
Transformers その他

C
CerebrumTech
2,959
7
Omost Dolphin 2.9 Llama3 8b 4bits
OmostがリリースしたLlama3-8Bベースの命令ファインチューニングモデルで、Dolphin-2.9データセットで事前学習され、4ビットNF4形式で量子化されています。
大規模言語モデル
Transformers

O
lllyasviel
106
6
Omost Llama 3 8b 4bits
Omostがリリースしたllama-3モデルで、8kのコンテキスト長をサポートし、nf4量子化を採用しています。
大規模言語モデル
Transformers

O
lllyasviel
1,163
21
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98