A.X 4.0 Light Gguf
Apache-2.0
A.X 4.0 LightはSKT AI Model Labによって開発された軽量級大規模言語モデルで、Qwen2.5をベースに構築され、韓国語理解と企業デプロイに最適化されています。
大規模言語モデル
Transformers 複数言語対応

A
mykor
535
2
Longwriter Zero 32B GGUF
Apache-2.0
LongWriter-Zero-32B量子化モデルは、オリジナルモデルに基づいて静的量子化処理を行った多言語モデルで、強化学習や写作などの長文脈シーンに適しています。
大規模言語モデル
Transformers 複数言語対応

L
mradermacher
204
1
Jan Nano Gguf
Apache-2.0
Jan NanoはQwen3アーキテクチャに基づいて微調整された小型言語モデルで、ローカルおよび組み込み環境向けに設計され、高い効率性と長文脈処理能力を兼ね備えています。
大規模言語モデル
J
Menlo
2,703
38
Deepseek R1 0528 GPTQ Int4 Int8Mix Compact
MIT
DeepSeek-R1-0528モデルのGPTQ量子化バージョンで、Int4 + 選択的Int8の量子化方式を採用し、生成品質を保ちながらファイルサイズを縮小します。
大規模言語モデル
Transformers

D
QuantTrio
258
1
Zlatorog 12B Instruct Beta
Zlatorog-12B-Instruct-Betaは、Mistral Nemo 12Bをベースに微調整された大規模言語モデルで、スロベニア語関連の研究用に設計されており、命令追従、推論、ツール強化生成タスクをサポートしています。
大規模言語モデル
Transformers 複数言語対応

Z
zID4si
123
1
Ophiuchi Qwen3 14B Instruct
Apache-2.0
Qwen3-14Bアーキテクチャに基づく命令微調整モデルで、数学的推論、コード生成、事実の正確性に特化
大規模言語モデル
Transformers 複数言語対応

O
prithivMLmods
21
3
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plusはマイクロソフトリサーチによって開発されたオープンソースの推論モデルで、数学、科学、プログラミング分野の高度な推論能力に特化しています。
大規模言語モデル 複数言語対応
P
unsloth
109.62k
47
Qwen3
Apache-2.0
Qwen3はQwenチームによって開発された一連の高度な言語モデルで、高度な推論、対話、命令遵守、エージェントアプリケーションなどの分野で卓越した性能を発揮します。
大規模言語モデル
Q
cortexso
8,089
2
Greenmind Medium 14B R1
MIT
GreenMind-Medium-14B-R1 は中規模のベトナム語言語モデルで、常識、数学、自然科学、社会科学などの主題において中級レベルの推論を必要とする問題を効果的に解決できます。
大規模言語モデル 複数言語対応
G
GreenNode
50
2
Bamba 9B V2
Apache-2.0
Bamba-9B-v2はMamba-2アーキテクチャに基づいて構築されたデコーダーのみの言語モデルで、テキスト生成タスクに特化しており、Llama 3.1 8Bよりも性能が優れています。
大規模言語モデル
Transformers

B
ibm-ai-platform
3,634
15
Kyro N1.1 7B Pytorch
その他
Kyro-n1.1はKyro-n1の強化バージョンで、Qwen2.5-7B-Instructを基に構築され、推論能力、理解力、応答精度が最適化されています。
大規模言語モデル
Transformers 複数言語対応

K
open-neo
41
2
Phi 4 Reasoning Plus
MIT
Phi-4-reasoning-plus はマイクロソフトリサーチが開発した先進的なオープンウェイト推論モデルで、Phi-4を基に教師ありファインチューニングと強化学習で最適化され、数学、科学、コーディング分野の高度な推論能力に特化しています。
大規模言語モデル
Transformers 複数言語対応

P
microsoft
19.83k
261
Internvl3 78B Pretrained
その他
InternVL3-78BはOpenGVLabが開発した先進的なマルチモーダル大規模言語モデルで、卓越した総合性能を発揮します。前世代のInternVL 2.5と比較し、より強力なマルチモーダル知覚と推論能力を備え、ツール使用、GUIエージェント、産業画像分析、3D視覚知覚などの新領域に能力を拡張しています。
テキスト生成画像
Transformers その他

I
OpenGVLab
22
1
Internvl3 2B Instruct
Apache-2.0
InternVL3-2B-InstructはInternVL3-2Bを基にした教師付き微調整バージョンで、ネイティブマルチモーダル事前学習とSFT処理を経ており、強力なマルチモーダル知覚と推論能力を備えています。
テキスト生成画像
Transformers その他

I
OpenGVLab
1,345
4
Deepcoder 1.5B Preview GGUF
MIT
DeepSeek-R1-Distilled-Qwen-1.5Bをファインチューニングしたコード推論大規模言語モデルで、分散型強化学習技術を用いて長文脈処理能力を拡張
大規模言語モデル 英語
D
Mungert
888
2
La Superba 14B Y.2
Apache-2.0
Qwen 2.5 14Bアーキテクチャに基づいて構築された次世代言語モデルで、数学推論、プログラミング、一般的な論理タスクに最適化されています。
大規模言語モデル
Transformers 複数言語対応

L
prithivMLmods
19
2
Moderncamembert Cv2 Base
MIT
1兆の高品質なフランス語テキストで事前学習されたフランス語言語モデル、ModernBERTのフランス語版
大規模言語モデル
Transformers フランス語

M
almanach
232
2
Phi 4 Reasoning
MIT
Phi-4推論はPhi-4を基に、教師あり微調整の思考連鎖軌跡データセットと強化学習で訓練された最先端のオープンウェイト推論モデルで、数学、科学、プログラミングスキルに特化しています。
大規模言語モデル
Transformers 複数言語対応

P
microsoft
11.31k
172
Deepseek V3 0324 GGUF
MIT
現在のV3-0324モデルはこのサイズカテゴリで最高性能の量子化バージョンであり、Q8_0に近い性能を維持しながら大幅にサイズを削減
大規模言語モデル その他
D
ubergarm
1,712
20
EXAONE Deep 2.4B GGUF
その他
EXAONE DeepはLG AI Researchが開発した効率的な推論言語モデルで、パラメータ規模2.4B、数学やプログラミングなどの推論タスクで優れた性能を発揮します。
大規模言語モデル 複数言語対応
E
Mungert
968
3
Olmo2 11B SuperBPE T180k
Apache-2.0
110億パラメータの大規模言語モデルで、革新的なSuperBPEトークナイザーで訓練され、スーパーワードユニット認識とサブワードトークン化能力をサポートします。
大規模言語モデル
Transformers 英語

O
UW
29
2
Theta 35
Apache-2.0
Theta-35はSVECTORが提供するThetaシリーズの高度な推論モデルで、複雑な思考と推論に特化しており、深度のある論理分析と多段階推論が必要な難問で優れた性能を発揮します。
大規模言語モデル
Transformers 英語

T
SVECTOR-CORPORATION
10.44k
5
Granite 3.2 2b Instruct GGUF
Apache-2.0
Granite-3.2-2B-Instructは20億パラメータの長文脈AIモデルで、思考推論能力に特化して微調整され、12言語とマルチタスク処理をサポートします。
大規模言語モデル
G
ibm-research
1,476
7
Granite 3.2 8b Instruct GGUF
Apache-2.0
Granite-3.2-8B-Instructは80億パラメータの長文脈AIモデルで、思考推論能力に特化して微調整され、複数の言語とタスクをサポートします。
大規模言語モデル
Transformers

G
ibm-research
1,059
5
Mmmamba Linear
MIT
mmMamba-linearは、中規模な学術計算リソースで二次から線形への蒸留を実現した初の純粋デコーダ型マルチモーダル状態空間モデルで、効率的なマルチモーダル処理能力を備えています。
画像生成テキスト
Transformers

M
hustvl
16
3
Llama Krikri 8B Base
Llama-Krikri-8B-BaseはLlama-3.1-8Bをベースに構築された大規模ギリシャ語基礎言語モデルで、継続的な事前学習によりギリシャ語能力を拡張しつつ英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

L
ilsp
104
12
Modernbert Base Long Context Qe V1
Apache-2.0
ModernBERT-baseをファインチューニングした機械翻訳品質評価モデルで、長文脈の文書レベル評価をサポート
質問応答システム
Transformers 複数言語対応

M
ymoslem
987
5
Qwen2.5 14B DeepSeek R1 1M
Apache-2.0
推論モデルと長文脈モデルの利点を融合した多用途大規模言語モデル
大規模言語モデル
Transformers

Q
mkurman
2,195
52
Deepseek R1 Bf16
MIT
DeepSeek-R1は第一代の推論モデルで、数学、コード、推論タスクで優れた性能を発揮し、その性能はOpenAI-o1に匹敵します。
大規模言語モデル
Transformers

D
opensourcerelease
1,486
16
Phi 4 Model Stock V2
Phi-4-Model-Stock-v2は複数のPhi-4バリエーションモデルを統合した大規模言語モデルで、model_stock統合手法を採用し、複数のベンチマークテストで良好な性能を示しています。
大規模言語モデル
Transformers

P
bunnycore
56
2
Qwen2 VL 2B Instruct GGUF
Apache-2.0
Qwen2-VL-2B-Instructはマルチモーダルな視覚言語モデルで、画像とテキストの相互作用をサポートし、画像理解と生成タスクに適しています。
画像生成テキスト 英語
Q
gaianet
95
1
HTML Pruner Phi 3.8B
Apache-2.0
RAGシステムにおいてプレーンテキストよりもHTMLが検索結果のモデリングに適しているHTMLプルーニングモデル
大規模言語モデル
Transformers 英語

H
zstanjj
319
10
Lucie 7B
Apache-2.0
Lucie-7Bは、LINAGORAとOpenLLM-Franceが共同で構築した70億パラメータの多言語自己回帰型言語モデルで、Llama-3アーキテクチャに基づき、3兆トークンの多言語データで事前学習されています。
大規模言語モデル
TensorBoard 複数言語対応

L
OpenLLM-France
1,262
20
Yi 1.5 9B Chat 16K Abliterated
Apache-2.0
大規模言語モデルのアブレーションバージョンで、元のモデルより性能が優れており、中国語と英語、長文脈処理をサポートしています。
大規模言語モデル
Transformers 複数言語対応

Y
byroneverson
10.52k
5
Jais Family 6p7b
Apache-2.0
Jaisシリーズはアラビア語に最適化された英語・アラビア語バイリンガル大規模言語モデルで、強力な英語能力を備え、パラメータ数は6.7億
大規模言語モデル 複数言語対応
J
inceptionai
79
6
Jais Family 2p7b Chat
Apache-2.0
Jaisはアラビア語に最適化されたバイリンガル大規模言語モデルファミリーで、強力な英語能力を備え、パラメータ数は5.9億から700億まで様々
大規模言語モデル 複数言語対応
J
inceptionai
583
7
Jais Adapted 7b
Apache-2.0
Jaisシリーズはアラビア語処理に特化したバイリンガル大規模言語モデルで、Llama-2アーキテクチャを基にアラビア語適応事前学習を実施
大規模言語モデル 複数言語対応
J
inceptionai
1,726
6
Jais Family 590m
Apache-2.0
Jaisシリーズはアラビア語に最適化されたバイリンガル大規模言語モデルで、同時に強力な英語能力を備えています。この590Mパラメータバージョンはシリーズ中最も小さいモデルで、軽量アプリケーションに適しています。
大規模言語モデル 複数言語対応
J
inceptionai
86
7
Jais Family 590m Chat
Apache-2.0
Jaisシリーズはアラビア語-英語バイリンガルの大規模言語モデルで、特にアラビア語のパフォーマンスを最適化しつつ、強力な英語能力を保持しています。590mバージョンはこのシリーズの基本モデルの一つです。
大規模言語モデル
Safetensors 複数言語対応
J
inceptionai
514
7
Meltemi 7B Instruct V1.5
Apache-2.0
Meltemi 7B Instruct v1.5は、Mistral 7Bをベースに改良されたギリシャ語指令微調整大規模言語モデルで、ギリシャ語の自然言語処理タスクに特化しています。
大規模言語モデル
Transformers

M
ilsp
1,237
21
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98