Gemma 3n E2B It Unsloth Bnb 4bit
Gemma 3n-E2B-itはGoogleが提供する軽量オープンソースのマルチモーダルモデルで、Geminiと同じ技術に基づいて構築され、低リソースデバイス向けに最適化されています。
画像生成テキスト
Transformers 英語

G
unsloth
4,914
2
Gryphe Codex 24B Small 3.2 GGUF
Apache-2.0
これはGrypheのCodex-24B-Small-3.2モデルの量子化バージョンで、量子化技術によりさまざまなハードウェア条件下での実行効率が最適化されています。
大規模言語モデル 英語
G
bartowski
626
3
Gemma 3n E2B It
Gemma 3nはGoogleが開発した軽量で最先端のオープンソースのマルチモーダルモデルファミリーで、Geminiモデルと同じ研究と技術に基づいて構築されています。テキスト、オーディオ、ビジュアル入力をサポートし、様々なタスクに適用できます。
画像生成テキスト
Transformers

G
google
1,183
26
Seed Coder 8B Instruct GGUF
MIT
Seed - Coder - 8B - Instructは強力なオープンソースコードモデルで、モデル中心、透明性、高性能などの特徴を持ち、様々なコーディングタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

S
unsloth
3,391
1
Gryphe Pantheon Proto RP 1.8 30B A3B GGUF
Apache-2.0
これはGryphe/Pantheon-Proto-RP-1.8-30B-A3Bモデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、ロールプレイングやテキスト生成タスクに適しています。
大規模言語モデル 英語
G
bartowski
2,972
6
Bielik 4.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
このモデルはBielik-4.5B-v3.0-InstructのFP8量子化バージョンで、AutoFP8技術により重みと活性化をFP8データ型に量子化し、ディスク容量とGPUメモリ要件を約50%削減します。
大規模言語モデル その他
B
speakleash
74
1
Bielik 1.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
これはBielik-1.5B-v3.0-Instructモデルを基にしたFP8動的量子化バージョンで、vLLMまたはSGLang推論フレームワークに適応しています。AutoFP8量子化技術により、パラメータのビット数を16ビットから8ビットに削減し、ディスク容量とGPUメモリ要件を大幅に削減しました。
大規模言語モデル その他
B
speakleash
31
1
Smollm 135M Instruct
Apache-2.0
モバイル端末へのデプロイに最適化された軽量命令微調整言語モデル
大規模言語モデル
S
litert-community
131
1
Josiefied Qwen3 4B Abliterated V1 Gguf
Apache-2.0
これは Josiefied-Qwen3-4B-abliterated-v1 モデルの GGUF 量子化バージョンで、ローカルデプロイと実行に適しています。
大規模言語モデル
J
Goekdeniz-Guelmez
4,518
7
Olmo 2 0425 1B Instruct
Apache-2.0
OLMo 2 1Bはallenai/OLMo-2-0425-1B-RLVR1モデルの後訓練バリアントで、教師あり微調整、DPOトレーニング、RLVRトレーニングを経ており、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル
Transformers 英語

O
allenai
5,127
33
Industry Project V2
Apache-2.0
Mistralアーキテクチャに基づいて最適化された命令微調整モデルで、ゼロショット分類タスクに適しています。
大規模言語モデル
I
omsh97
58
0
Gemma 2 9b It Abliterated GGUF
Gemma 2.9Bの量子化バージョンで、llama.cppを使用して最適化されており、LM Studioでの実行に適しています。
大規模言語モデル 英語
G
bartowski
3,941
37
Llama Krikri 8B Instruct
Llama-Krikri-8B-Instructはアテネ研究センターによって開発されたギリシャ語命令調整大規模言語モデルで、Llama-3.1-8Bをベースに構築され、ギリシャ語と英語のマルチタスク処理能力が強化されています。
大規模言語モデル
Transformers 複数言語対応

L
ilsp
1,630
18
MKLLM 7B Instruct
MKLLM-7Bはマケドニア語向けのオープンソース大規模言語モデルで、Mistral-7B-v0.1モデルを基にマケドニア語と英語の混合テキストで継続事前学習を行って構築されました。
大規模言語モデル
Transformers 複数言語対応

M
trajkovnikola
31
8
Badger Writer Llama 3 8b
バジャー・ライターは複数のLlama 3 8Bモデルを正規化フーリエタスク重畳したモデルで、テキスト生成タスクに特化しており、特にクリエイティブライティングと命令追従に優れています。
大規模言語モデル
Transformers

B
maldv
106
10
Gemma 2 Llama Swallow 9b It V0.1
Gemma-2-Llama-Swallowシリーズのモデルは、Gemma-2をベースに持続的な事前学習を行って構築された多言語大規模モデルで、特に日本語能力が強化されています。
大規模言語モデル
Transformers 複数言語対応

G
tokyotech-llm
2,491
3
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1はGemma-2-9bを基に開発されたトルコ語テキスト生成モデルで、継続的な事前学習、教師あり微調整(SFT)、直接選好最適化(DPO)、およびモデル統合技術によって最適化されています。
大規模言語モデル
Safetensors
T
ytu-ce-cosmos
167
18
Olmo 2 0425 1B
Apache-2.0
OLMo 2 1Bはアレン人工知能研究所が公開したオープン言語モデルシリーズの中で最小のモデルで、OLMo-mix-1124で事前学習され、中間トレーニング段階でDolmino-mix-1124データセットが使用されました。
大規模言語モデル
Transformers 英語

O
allenai
13.31k
45
Falcon E 1B Instruct
その他
Falcon-E-1B-Instructは、1.58ビットアーキテクチャに基づく効率的な言語モデルで、エッジデバイス向けに最適化されており、低メモリ使用量と高性能を特徴としています。
大規模言語モデル
Transformers

F
tiiuae
87
7
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
Qwen2.5アーキテクチャに基づく14Bパラメータ規模のコード生成・理解モデル、Model Stock手法により複数の専門コーディングモデルを統合
大規模言語モデル
Transformers

Q
spacematt
39
2
Videochat R1 Thinking 7B
Apache-2.0
VideoChat-R1-thinking_7B は Qwen2.5-VL-7B-Instruct をベースにしたマルチモーダルモデルで、動画テキストからテキストへの変換タスクに特化しています。
ビデオ生成テキスト
Transformers 英語

V
OpenGVLab
800
0
R01 Gemma 3 1b It
Gemma 3はGoogleが提供する軽量オープンソースのマルチモーダルモデルで、Geminiと同じ技術を基に構築されており、テキストと画像の入力を受け取りテキストを出力します。
テキスト生成画像
Transformers 英語

R
EpistemeAI
17
1
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
Qwen2.5-Coder-14B-Instructベースモデルを基に、mergekitツールで複数の専門コーディングモデルを統合したハイブリッドモデル
大規模言語モデル
Transformers

Q
spacematt
31
3
Latxa Llama 3.1 70B Instruct FP8
LatxaはLlama-3.1ベースの70Bパラメータのバスク語大規模言語モデルで、命令微調整とFP8量子化を施し、バスク語最適化のために設計されています
大規模言語モデル
Transformers

L
HiTZ
988
1
MT Gen10 Gemma 2 9B
これはGemma-2-9BシリーズモデルをベースにDARE TIES手法でマージしたマルチモデル融合バージョンで、複数のGemmaバリアントの長所を統合しています。
大規模言語モデル
Transformers

M
zelk12
26
2
Qwen2.5 1.5B Instruct
Apache-2.0
Gensyn RL Swarm専用に設計された15億パラメータの命令微調整モデルで、ピアツーピア強化学習によるローカル微調整をサポート
大規模言語モデル
Transformers 英語

Q
Gensyn
2.1M
4
Zhaav Gemma3 4B
Gemma 3アーキテクチャを基に微調整されたペルシャ語専用モデルで、QLoRA 4ビット量子化技術を使用し、一般的なハードウェアでの実行に適しています。
大規模言語モデル その他
Z
alifzl
40
1
Toastypigeon Gemma 3 Starshine 12B GGUF
Gemma 3 12Bベースのクリエイティブライティングモデルで、物語叙述とシーン構築に優れ、小説的な文体が特徴
大規模言語モデル 英語
T
ArtusDev
223
2
Gams 9B Instruct GGUF
GaMS-9B-InstructはGoogle Gemma 2シリーズを基に開発されたスロベニア語大規模言語モデルで、スロベニア語、英語、および一部の南スラブ語族の言語をサポートしています。
大規模言語モデル 複数言語対応
G
tknez
81
2
Lughaat 1.0 8B Instruct
Apache-2.0
Lughaat-1.0-8B-InstructはLlama 3.1 8Bアーキテクチャに基づいて構築されたウルドゥー語大規模モデルで、最大のウルドゥー語データセットでトレーニングされ、ウルドゥー語タスクで優れたパフォーマンスを発揮します。
大規模言語モデル
Transformers 複数言語対応

L
muhammadnoman76
42
2
Thedrummer Fallen Gemma3 4B V1 GGUF
その他
これはTheDrummer/Fallen-Gemma3-4B-v1モデルを基にした量子化バージョンで、llama.cppを使用して量子化処理されており、テキスト生成タスクに適しています。
大規模言語モデル
T
bartowski
2,106
3
Mlabonne Gemma 3 12b It Abliterated GGUF
mlabonne/gemma-3-12b-it-abliteratedモデルを基にした量子化バージョンで、llama.cppを使用してimatrix量子化を行い、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
7,951
6
Mistral Small 3.1 24b Instruct 2503 Hf
Apache-2.0
Mistral Small 3.1 Instruct 24B は命令微調整に基づく大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers

M
mrfakename
9,416
9
Gemma 3 27b It Quantized W4A16
Gemma 3はGoogleが開発した命令調整大規模言語モデルで、このリポジトリでは27BパラメータのW4A16量子化バージョンを提供し、ハードウェア要件を大幅に低減
大規模言語モデル
Transformers

G
abhishekchohan
640
4
Qwen2 VL 72B Instruct
その他
Qwen2-VL-72B-Instruct はマルチモーダル視覚言語モデルで、画像とテキストのインタラクションをサポートし、複雑な視覚言語タスクに適しています。
画像生成テキスト
Transformers 英語

Q
FriendliAI
18
1
MN Hecate Chthonia 12B
これはmergekitツールで統合された12Bパラメータの言語モデルで、複数の専門モデルの強みを組み合わせ、推論と心理学関連タスクに特化しています。
大規模言語モデル
Transformers

M
mergekit-community
23
3
Olmo 2 0325 32B Instruct 4bit
Apache-2.0
これはallenai/OLMo-2-0325-32B-Instructモデルを変換した4ビット量子化バージョンで、MLXフレームワーク向けに最適化されており、テキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

O
mlx-community
270
10
T3Q Qwen2.5 14b V1.0 E3 Q4 K M GGUF
Apache-2.0
これはQwen2.5-14B-Instruct-1Mを基にした量子化モデルで、GGUF形式に変換されており、llama.cppフレームワークに適しています。
大規模言語モデル 複数言語対応
T
Sangto
1,126
4
Gemma 3 12b Novision
google/gemma-3-12b-itから変換されたテキスト専用バージョンで、視覚コンポーネントを削除し、テキスト生成タスクに特化
大規模言語モデル
Transformers

G
gghfez
86
2
Gemma 3 4b Novision
Gemma-3-4b純テキストモデルは、google/gemma-3-4b-itから変換された純テキストバージョンで、ビジュアルコンポーネントを削除し、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers

G
gghfez
40.57k
2
- 1
- 2
- 3
- 4
- 5
- 6
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98