SWE Agent LM 32B GGUF
Apache-2.0
SWE-agent-LM-32Bはオープンソースのソフトウェアエンジニアリング言語モデルで、Qwen/Qwen2.5-Coder-32B-Instructをベースに微調整され、ソフトウェアエンジニアリングタスク向けに設計されています。
大規模言語モデル
Transformers 英語

S
Mungert
2,933
1
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3-30B-A3BはQwen3-30B-A3B-Baseを基にした大規模言語モデルで、テキスト生成タスクをサポートし、超低位量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
Q
Mungert
2,135
1
Bielik 4.5B V3.0 Instruct GGUF
Apache-2.0
Bielik-4.5B-v3.0-Instruct-GGUFはSpeakLeashがリリースしたポーランド語大規模言語モデルで、Bielik-4.5B-v3.0-InstructをGGUF量子化フォーマットに変換したもので、ローカル推論に適しています。
大規模言語モデル その他
B
speakleash
693
4
Qwen3 14B GGUF
Apache-2.0
Qwen3-14BはQwen/Qwen3-14B-Baseから生成されたGGUF形式モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
Q
Mungert
1,597
6
Qwen3 32B 128K GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
20.51k
20
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4BはQwenシリーズの最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、推論、指示追従、エージェント能力、多言語サポートの面で優れた性能を発揮します。
大規模言語モデル 英語
Q
unsloth
15.41k
17
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズの最新大規模言語モデルで、32.8Bパラメータの高密度モデルを提供し、推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しています。
大規模言語モデル
Transformers 英語

Q
unsloth
10.03k
5
Openbuddy Qwq 32b V25.2q 200k
Apache-2.0
量子化推論能力を強化するために最適化された多言語チャットボットで、8言語をサポートし、Qwen/QwQ-32Bモデルに基づいて開発されています
大規模言語モデル 複数言語対応
O
OpenBuddy
41
3
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本モデルはTHUDM/GLM-Z1-9B-0414のGGUF形式変換バージョンで、中英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
Aldaris
205
2
Deepcoder 1.5B Preview GGUF
MIT
DeepSeek-R1-Distilled-Qwen-1.5Bをファインチューニングしたコード推論大規模言語モデルで、分散型強化学習技術を用いて長文脈処理能力を拡張
大規模言語モデル 英語
D
Mungert
888
2
Open Thoughts OpenThinker2 32B GGUF
Apache-2.0
OpenThinker2-32Bの量子化バージョンで、llama.cppを使用してimatrix量子化を行い、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
O
bartowski
1,332
10
Stockllm
FinSeer StockLLM は、金融時系列予測のために設計されたオープンソースの10億パラメータ大規模言語モデルで、検索拡張生成(RAG)フレームワークを採用しています。
大規模言語モデル
Transformers 英語

S
TheFinAI
29
1
Gemma 3 4b It Q8 0 GGUF
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカルデプロイと推論に適しています。
大規模言語モデル
G
NikolayKozloff
56
2
Gemma 3 12b It Q5 K S GGUF
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカル推論に適しており、テキスト生成タスクをサポートします。
大規模言語モデル
G
NikolayKozloff
16
1
Gemma 3 12b It Q5 K M GGUF
これはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
NikolayKozloff
46
1
Qwen.qwen2 VL 7B GGUF
Qwen2-VL-7Bの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。
画像生成テキスト
Q
DevQuasar
142
0
Instella 3B Stage1
その他
InstellaはAMDが開発した30億パラメータのオープンソース言語モデルシリーズで、AMD Instinct™ MI300X GPUでトレーニングされ、同規模の完全オープンソースモデルを性能で凌駕しています。
大規模言語モデル
Transformers

I
amd
397
12
Deepseek R1 Distill Qwen 32B Quantized.w8a8
MIT
DeepSeek-R1-Distill-Qwen-32Bの量子化バージョン。INT8の重み量子化と活性化量子化により、メモリ要件を削減し、計算効率を向上させます。
大規模言語モデル
Transformers

D
RedHatAI
3,572
11
Reflection Llama 3.1 70B
Reflection Llama-3.1 70B はオープンソースの大規模言語モデルで、'反省チューニング'技術を用いてトレーニングされ、自主的に推論エラーを検出し修正することができます。
大規模言語モデル
Transformers

R
mattshumer
199
1,712
Llama3 ChatQA 2 8B
Llama-3ベースモデルを開発した128K長文脈大規模言語モデルで、RAGと長文理解能力の向上に焦点を当てています
大規模言語モデル
PyTorch 英語
L
nvidia
437
16
Xgen Mm Phi3 Mini Instruct Interleave R V1.5
Apache-2.0
xGen-MMはSalesforce AI Researchが開発した最新の基礎大規模マルチモーダルモデル(LMMs)シリーズで、BLIPシリーズの成功した設計を基に改良され、基礎的な強化によりより強力で優れたモデル基盤を確保しています。
画像生成テキスト 英語
X
Salesforce
7,373
51
Xgen Mm Phi3 Mini Instruct Singleimg R V1.5
Apache-2.0
xGen-MMはSalesforce AI Researchによって開発された一連の最新の基礎大型マルチモーダルモデルで、BLIPシリーズの成功した設計に基づいて改良され、より強力なマルチモーダル処理能力を提供します。
画像生成テキスト
Safetensors 英語
X
Salesforce
313
15
Tarsier 7b
Tarsier-7b は Tarsier シリーズのオープンソース大規模動画言語モデルで、高品質な動画説明の生成と優れた汎用動画理解能力に特化しています。
ビデオ生成テキスト
Transformers

T
omni-research
635
23
Llama 3 ChocoLlama 8B Instruct
Llama-3-8Bをベースとしたオランダ語命令最適化大規模モデル。複数のオランダ語命令データセットでSFTとDPOによるファインチューニングを実施
大規模言語モデル
Transformers その他

L
ChocoLlama
268
6
Mistral 7B V0.3
Apache-2.0
Mistral-7B-v0.3はMistral-7B-v0.2をアップグレードした大規模言語モデルで、主な改善点は語彙表を32768トークンに拡張したことです。
大規模言語モデル
Transformers

M
mistralai
442.55k
472
Xgen Mm Phi3 Mini Instruct R V1
xGen-MMはSalesforce AI Researchが開発した最新の基盤大規模マルチモーダルモデルシリーズで、BLIPシリーズを改良し、強力な画像理解とテキスト生成能力を備えています。
画像生成テキスト
Transformers 英語

X
Salesforce
804
186
Llama 2 13B QServe
Llama 2はMetaが開発した一連のオープンソース大規模言語モデルで、さまざまな規模の事前学習済みおよび微調整バージョンが含まれており、対話や生成タスクに適しています。
大規模言語モデル
Transformers

L
mit-han-lab
21
1
Hamza Xl
Llama 2はMetaが発表した次世代オープンソース大規模言語モデルで、7B、13B、70Bの3つのパラメータ規模バージョンがあり、商用ライセンスをサポートしています。
大規模言語モデル
Transformers

H
emrecanacikgoz
71
2
Llama 3 Open Ko 8B Gguf
Llama-3-8Bフレームワークを基に追加事前学習を行った韓国語言語モデルで、60GB以上の重複除去テキストデータを使用して訓練
大規模言語モデル 複数言語対応
L
teddylee777
7,211
47
Snowflake Arctic Base
Apache-2.0
スノーフレーク・アークティックは、Snowflake AI研究チームによって開発された高密度混合エキスパート(MoE)アーキテクチャの大規模言語モデルで、4800億のパラメータを持ち、効率的なテキストおよびコード生成のために設計されています。
大規模言語モデル
Transformers

S
Snowflake
166
67
Lm3 8 Bnb 4bit V1.0
Llama 2アーキテクチャに基づく韓国語テキスト生成モデル、韓国語自然言語処理タスクに特化
大規模言語モデル
Transformers 韓国語

L
haes95
18
1
Wizardlaker 7B
Apache-2.0
ウィザードレイク7Bは次世代WizardLM 2 7BモデルとカスタムDolphinLakeモデルを融合したモデルで、優れた性能を発揮します。
大規模言語モデル
Transformers

W
Noodlz
22
2
Openelm 3B
OpenELMはオープンソースの効率的な言語モデルのセットで、階層的スケーリング戦略を用いてパラメータ割り当てを最適化し、モデルの精度を向上させます。270M、450M、1.1B、3Bの4つのパラメータ規模を含み、事前学習版と指示チューニング版を提供します。
大規模言語モデル
Transformers

O
apple
1,436
123
Microsoft WizardLM 2 7B
Apache-2.0
WizardLM-2 7BはマイクロソフトAIチームが開発した効率的な大規模言語モデルで、Mistral-7Bアーキテクチャを基にし、多言語、推論、エージェントタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

M
lucyknada
168
51
Jetmoe 8b
Apache-2.0
JetMoE-8Bは、10万ドル未満のトレーニングコストでLLaMA2-7Bの性能レベルを達成した効率的なオープンソース大規模言語モデルで、低リソース環境向けに設計されています。
大規模言語モデル
Transformers

J
jetmoe
1,337
246
Mistral Orpo Beta
MIT
Mistral-ORPO-βはMistral-7BをORPO手法でファインチューニングした70億パラメータの言語モデルで、教師ありファインチューニングのウォームアップ段階なしで直接嗜好を学習できます。
大規模言語モデル
Transformers 英語

M
kaist-ai
18
38
Cogvlm Grounding Generalist Hf Quant4
Apache-2.0
CogVLMは強力なオープンソースの視覚言語モデルで、物体検出や視覚的質問応答などのタスクをサポートし、4ビット精度の量子化を採用しています。
画像生成テキスト
Transformers

C
Rodeszones
50
9
Aya 101
Apache-2.0
Aya 101は101言語の命令をサポートする大規模多言語生成型言語モデルで、様々な評価で同類のモデルを上回っています。
大規模言語モデル
Transformers 複数言語対応

A
CohereLabs
3,468
640
Smaug 72B V0.1
その他
平均スコア80%を初めて突破したオープンソース大規模言語モデル。MoMo-72B-lora-1.8.7-DPOを微調整し、革新的なDPO-Positive技術で選好学習を最適化
大規模言語モデル
Transformers

S
abacusai
119
468
Emollama Chat 7b
MIT
Emollama-chat-7bはEmoLLMsプロジェクトの一部であり、命令追従能力を備えた最初のオープンソース大規模言語モデルシリーズで、包括的な感情分析に特化しています。
大規模言語モデル
Transformers 英語

E
lzw1008
281
4
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98