Qwen3 4B AWQ
Apache-2.0
Qwen3-4Bは通義千問シリーズ最新世代の40億パラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、指示追従、インテリジェントエージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
2,755
4
Qwq Bakeneko 32b
Apache-2.0
Qwen2.5-32BとQwQ-32Bを統合・最適化した日本語対話モデルで、Chat VectorとORPO技術により指示追従能力を強化
大規模言語モデル
Transformers 日本語

Q
rinna
1,597
17
Sombrero QwQ 32B Elite11
Apache-2.0
QwenのQwQ 32Bアーキテクチャを基に最適化された大規模言語モデルで、効率的なメモリ利用、プログラミング支援、複雑な問題解決に特化しています。
大規模言語モデル
Transformers 英語

S
prithivMLmods
1,201
8
Li 14b V0.4 Slerp0.1
これはSLERP手法を用いて統合された140億パラメータ規模の大規模言語モデルで、li-14b-v0.4とmiscii-14b-0218の2つの基本モデルを統合して作成されました。
大規模言語モデル
Transformers

L
wanlige
70
7
Phi 4 Model Stock V2
Phi-4-Model-Stock-v2は複数のPhi-4バリエーションモデルを統合した大規模言語モデルで、model_stock統合手法を採用し、複数のベンチマークテストで良好な性能を示しています。
大規模言語モデル
Transformers

P
bunnycore
56
2
Aceinstruct 72B
AceInstructは、Qwenを改良した一連の高度なSFTモデルで、コーディング、数学、汎用タスクに適しています。
大規模言語モデル
Safetensors 複数言語対応
A
nvidia
1,584
18
Sky T1 32B Preview GGUF
Sky-T1-32B-Previewは32Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を経ており、テキスト生成タスクに適しています。
大規模言語モデル 英語
S
bartowski
1,069
81
Dolphin3.0 Llama3.2 3B GGUF
Llama3.2アーキテクチャに基づく3Bパラメータの大規模言語モデルで、英文テキスト生成タスクをサポートし、llama.cppを使用したimatrix量子化を採用
大規模言語モデル 英語
D
bartowski
5,665
15
Luxllama
Apache-2.0
LuxLlamaはMeta-Llama-3.1-8B-Instructモデルをファインチューニングしたバージョンで、ルクセンブルク語の理解と生成能力、および一般的および数学的推論能力を特に最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
aiplanet
33
2
Deepseek Coder V2 Lite Base AWQ
その他
DeepSeek-Coder-V2はオープンソースの混合専門家(MoE)コード言語モデルで、特定のコードタスクではGPT4-Turboに匹敵する性能を実現します。
大規模言語モデル
Transformers

D
TechxGenus
229.29k
2
Qwen2 7B Instruct
Apache-2.0
Qwen2-7B-Instructを基にさらにファインチューニングされたモデルで、複雑なマルチターンツール/関数呼び出しタスクの処理に優れています。
大規模言語モデル
Transformers 複数言語対応

Q
rubra-ai
62
5
Granite 8b Code Instruct 4k
Apache-2.0
Granite-8B-Code-Instruct-4Kは80億パラメータのコード命令モデルで、Granite-8B-Code-Base-4Kを基に、さまざまな許可された命令データで微調整されており、論理的推論や問題解決スキルを含む命令遵守能力が強化されています。
大規模言語モデル
Transformers その他

G
ibm-granite
1,481
110
Granite 3b Code Instruct 2k
Apache-2.0
Granite-3B-Code-Instruct-2KはGranite-3B-Code-Base-2Kを微調整した30億パラメータのモデルで、命令追従能力が強化されており、特にコード生成と論理的推論タスクに優れています。
大規模言語モデル
Transformers その他

G
ibm-granite
1,883
36
Chicka Mixtral 3x7b
MIT
3つのMistralアーキテクチャモデルに基づくエキスパート混合大規模言語モデルで、対話、コード、数学タスクに優れています
大規模言語モデル
Transformers

C
Chickaboo
77
3
Smaug 72B V0.1
その他
平均スコア80%を初めて突破したオープンソース大規模言語モデル。MoMo-72B-lora-1.8.7-DPOを微調整し、革新的なDPO-Positive技術で選好学習を最適化
大規模言語モデル
Transformers

S
abacusai
119
468
Smaug 34B V0.1
Apache-2.0
jondurbin/bagel-34b-v0.2をファインチューニングした大規模言語モデルで、新たなDPO-Positive(DPOP)技術を用いて選好学習を最適化
大規模言語モデル
Transformers

S
abacusai
2,694
62
Discolm Mixtral 8x7b V2
Apache-2.0
Mistral AIのMixtral 8x7bをベースに開発された実験的な8x7b混合エキスパートモデルで、Synthia、MetaMathQA、Capybaraデータセットでファインチューニングされています
大規模言語モデル
Transformers 英語

D
DiscoResearch
205
124
Wizardlm 13B V1.2
WizardLM-13B V1.2はLlama-2 13bをベースに訓練された大規模言語モデルで、複雑な指令の遵守能力に特化しています。
大規模言語モデル
Transformers

W
WizardLMTeam
989
226
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98