Moonshotai.kimi K2 Instruct BF16
その他
Kimi K2は、320億のアクティブパラメータと1兆の総パラメータを持つ、高度なハイブリッドエキスパート(MoE)言語モデルで、エージェント能力に対して最適化されています。
大規模言語モデル
Transformers

M
DevQuasar
110
3
Devstral Small 2507
Apache-2.0
Devstralは、ソフトウェアエンジニアリングタスク用に特別に開発された大規模言語モデルで、Mistral AIとAll Hands AIが共同開発しました。SWE-benchベンチマークテストで優れた成績を収め、1位のオープンソースモデルです。
大規模言語モデル
Safetensors 複数言語対応
D
unsloth
155
3
Devstral Small 2507 Gguf
Apache-2.0
Devstralは、ソフトウェアエンジニアリングタスク用に特別に開発されたスマート大規模言語モデルで、Mistral AIとAll Hands AIが共同開発しました。
大規模言語モデル 複数言語対応
D
mistralai
6,289
23
Devstral Small 2505 FP8 Dynamic
Apache-2.0
Devstralは、ソフトウェアエンジニアリングタスク用に特別に開発された高度なインテリジェント言語モデルで、Mistral AIとAll Hands AIが共同開発したもので、コードの探索、編集、およびソフトウェアエンジニアリングエージェントのサポートに優れています。
大規模言語モデル
Safetensors 複数言語対応
D
nm-testing
748
1
Phi 4 Mini Reasoning GGUF
MIT
Phi-4-mini-reasoningは合成データに基づいて構築された軽量のオープンモデルで、高品質で推論に富んだデータに焦点を当て、より高度な数学的推論能力に対してさらに微調整されています。
大規模言語モデル
Transformers

P
Mungert
3,592
3
Gemma 3 12b It Qat Bnb 4bit
Gemma 3はGoogleが開発した軽量マルチモーダルモデルで、Geminiと同じ技術を基に構築されており、テキストと画像の入力に対応し、テキスト出力を生成します。128Kの大きなコンテキストウィンドウを持ち、140種類以上の言語をサポートします。
画像生成テキスト
Transformers

G
unsloth
2,180
0
Gemma 27B Chatml
Gemma 3はGoogleが開発した軽量で最先端のオープンソースのマルチモーダルモデルファミリーで、Geminiモデルを作成するための同じ研究と技術に基づいて構築されており、テキストと画像の入力をサポートし、テキスト出力を生成します。
画像生成テキスト
Transformers

G
NewEden
1,425
0
Gemma 3 4b It Qat Compressed Tensors
Gemma 3 4BはGoogle技術に基づく軽量マルチモーダルモデルで、テキストと画像入力をサポートし、テキスト出力を生成し、リソースが限られた環境でのデプロイに適しています。
画像生成テキスト
Safetensors
G
gaunernst
2,478
1
Phi 3.5
MIT
Phi-3.5はMicrosoftによって開発された、Phi-3アーキテクチャに基づく高度な大規模言語モデルで、高品質で推論に富んだデータに焦点を当て、128Kトークンのコンテキスト長をサポートしています。
大規模言語モデル
P
cortexso
304
1
Yi Coder 9B
Apache-2.0
Yi-Coderはオープンソースのコード言語モデルシリーズで、パラメータ規模が100億未満の場合でも最先端のコーディング性能を提供します。
大規模言語モデル
Transformers

Y
01-ai
4,066
43
Deepseek Coder V2 Lite Base AWQ
その他
DeepSeek-Coder-V2はオープンソースの混合専門家(MoE)コード言語モデルで、特定のコードタスクではGPT4-Turboに匹敵する性能を実現します。
大規模言語モデル
Transformers

D
TechxGenus
229.29k
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98