Qwen3 Embedding 4B GGUF
Apache-2.0
Qwen3-Embedding-4BはQwen3シリーズに基づいて構築されたテキスト埋め込みモデルで、テキスト埋め込みとソートタスクに特化して設計され、多言語テキスト処理やコード検索などの分野で優れた性能を発揮します。
テキスト埋め込み
Q
Mungert
723
1
Medgemma 4b It GGUF
その他
MedGemma-4B-ITはGemma 3をベースにした医学分野のマルチモーダルモデルで、医学テキストと画像の理解をサポートし、医療AIアプリケーション開発に適しています。
画像生成テキスト
Transformers

M
Mungert
637
2
Medgemma 4b Pt
その他
MedGemmaはGemma 3をベースに開発された医学マルチモーダルモデルで、医学テキストと画像の理解に特化し、医療AIアプリケーションの構築をサポートします。
画像生成テキスト
Transformers

M
unsloth
105
1
Medgemma 27b Text It
その他
MedGemmaはGemma 3を最適化した医療専用モデルシリーズで、270億パラメータの純粋テキスト版を提供し、医学テキスト理解と推論に最適化されています。
大規模言語モデル
Transformers

M
unsloth
211
2
Medgemma 4b It
その他
MedGemmaはGemma 3を最適化した医療マルチモーダルモデルシリーズで、医療テキストと画像理解のために設計され、4Bと27Bの2つのパラメータサイズバージョンを提供します。
画像生成テキスト
Transformers

M
google
15.36k
259
Medgemma 4b Pt
その他
MedGemmaはGemma 3を最適化した医療マルチモーダルモデルで、医療テキストと画像理解のために設計されており、4Bと27Bの2つのバージョンがあります。
画像生成テキスト
Transformers

M
google
1,054
73
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6BはQwenシリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、指示追従、多言語能力を備えています。
大規模言語モデル
Q
QuantFactory
317
1
Superthoughts Lite V2 MOE Llama3.2 GGUF
Superthoughts Lite v2はLlama-3.2アーキテクチャを基にした軽量な混合専門家(MOE)モデルで、推論タスクに特化し、より高い精度と性能を提供します。
大規模言語モデル 複数言語対応
S
Pinkstack
119
2
Qwen3 1.7B GGUF
Apache-2.0
通義千問シリーズの大規模言語モデルの最新バージョンで、思考モードと非思考モードの切り替えをサポートし、強力な推論、多言語、エージェント能力を備えています。
大規模言語モデル
Q
Qwen
1,180
1
Qwen3 1.7B GGUF
Apache-2.0
Qwen3-1.7BはQwenシリーズ最新世代の1.7Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強化された推論能力と多言語サポートを備えています。
大規模言語モデル 英語
Q
unsloth
28.55k
16
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6Bはアリババクラウドが開発した0.6Bパラメータ規模の大規模言語モデルで、Qwen3シリーズの最新メンバーです。100以上の言語をサポートし、強力な推論、指示追従、多言語能力を備えています。
大規模言語モデル 英語
Q
unsloth
53.56k
41
Llama 3 70b Arimas Story RP V1.6 3.5bpw H6 Exl2
Llama-3-70Bベースのマージモデルで、ストーリー生成とロールプレイ(RP)タスクに特化し、breadcrumbs_tiesメソッドで複数の高品質モデルを統合
大規模言語モデル
Transformers

L
kim512
21
1
Qwen2.5 1.5B Instruct
Apache-2.0
Gensyn RL Swarm専用に設計された15億パラメータの命令微調整モデルで、ピアツーピア強化学習によるローカル微調整をサポート
大規模言語モデル
Transformers 英語

Q
Gensyn
2.1M
4
ZYH LLM Qwen2.5 14B V4
Apache-2.0
ZYH - LLM - Qwen2.5 - 14B - V4はQwen2.5 - 14Bをベースに改良された大規模言語モデルで、多段階モデルのマージと蒸留技術により計算の正確性と推論能力を向上させています。
大規模言語モデル
Safetensors 複数言語対応
Z
YOYO-AI
1,235
7
Ganga 2 1B
Apache-2.0
Ganga-2-1bはヒンディー語データセットに基づいて訓練された命令微調整モデルで、Project Unityプロジェクトの一部であり、インド語言の多様性と豊かさを処理することを目的としています。
大規模言語モデル
Transformers 複数言語対応

G
LingoIITGN
598
3
Ola 7b
Apache-2.0
Ola-7Bは、テンセント、清華大学、南洋理工大学が共同開発したマルチモーダル大規模言語モデルで、Qwen2.5アーキテクチャを基に、テキスト、画像、動画、音声の入力を処理し、テキスト出力を生成することができます。
マルチモーダル融合
Safetensors 複数言語対応
O
THUdyh
1,020
37
Llama3.1 Typhoon2 8b Instruct
Llama3.1-Typhoon2-8Bは、Transformerアーキテクチャに基づくタイ語の大規模言語モデル(指令型)で、複数の言語タスクを処理でき、ユーザーに効率的で正確な言語インタラクションサービスを提供します。
大規模言語モデル
Safetensors
L
scb10x
2,831
7
Llama DNA 1.0 8B Instruct
Llamaアーキテクチャに基づく最先端のバイリンガル言語モデルで、韓国語の理解と生成能力を特に最適化しつつ、強力な英語能力を保持しています。
大規模言語モデル
Transformers 複数言語対応

L
dnotitia
661
58
Granite 8b Code Instruct 128k GGUF
Apache-2.0
IBM Granite 8Bコード指令モデルで、128kの文脈長をサポートし、コード生成と指令理解タスクに特化しています。
大規模言語モデル
Transformers その他

G
tensorblock
186
1
Magnum V4 72b FP8 Dynamic
Apache-2.0
Qwen2.5 - 72B - Instructをベースに微調整された72Bパラメータの大規模言語モデルで、動的FP8量子化技術を用いて推論効率を最適化し、Claude 3の散文の質を再現することを目的としています。
大規模言語モデル
Transformers 英語

M
Infermatic
2,106
2
Allegro
Apache-2.0
Allegroはオープンソースの高品質なテキストから動画を生成するモデルで、720x1280解像度、15 FPSの6秒間の詳細な動画を生成できます。
テキスト生成ビデオ 英語
A
rhymes-ai
250
257
Mistral Nemo BD RP
Apache-2.0
BeyondDialogueデータセットでファインチューニングされた大規模言語モデルで、中英ロールプレイシナリオ専用に設計
大規模言語モデル 複数言語対応
M
yuyouyu
36
7
Internvideo2 Chat 8B InternLM2 5
MIT
InternVideo2-Chat-8B-InternLM2.5は、動画-テキストマルチモーダルモデルで、InternVideo2動画エンコーダーと大規模言語モデル(LLM)を統合することで、動画理解と人間との対話能力を強化しています。
ビデオ生成テキスト
I
OpenGVLab
60
7
Gte Multilingual Mlm Base
Apache-2.0
mGTEシリーズの多言語テキストエンコーダーで、75言語をサポートし、最大文脈長は8192、BERT+RoPE+GLUアーキテクチャに基づき、GLUEとXTREME-Rベンチマークで優れた性能を発揮
大規模言語モデル
Safetensors
G
Alibaba-NLP
342
12
Jais Family 1p3b
Apache-2.0
Jaisシリーズはアラビア語処理に特化したバイリンガル大規模言語モデルで、強力な英語能力を備え、パラメータ数は13億
大規模言語モデル 複数言語対応
J
inceptionai
318
9
H2o Danube3 4b Chat
Apache-2.0
H2O.aiが微調整した40億パラメータのチャットモデルで、テキスト生成タスクをサポートし、携帯電話でオフラインで動作できます。
大規模言語モデル
Transformers 英語

H
h2oai
41.49k
67
Norwai Mixtral 8x7B Instruct
NorwAI-Mixtral-8x7Bをベースに指令調整を行ったノルウェー語の大規模言語モデルで、約9000件の高品質なノルウェー語指令で最適化されています。
大規模言語モデル
Transformers

N
NorwAI
144
2
Deepseek V2 Lite
DeepSeek-V2-Liteは、経済効率に優れたエキスパート混合(MoE)言語モデルで、総パラメータ数16B、活性化パラメータ数2.4B、32kの文脈長をサポートします。
大規模言語モデル
Transformers

D
ZZichen
20
1
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Smallは70億パラメータの軽量級最先端オープンソースモデルで、NVIDIA GPU向けに最適化されたONNXバージョンであり、8Kの文脈長をサポートし、強力な推論能力を備えています。
大規模言語モデル
Transformers

P
microsoft
115
12
H2o Danube2 1.8b Chat
Apache-2.0
H2O.aiによって微調整された18億パラメータのチャットモデル、Llama 2アーキテクチャを基に調整、8192トークンの文脈長をサポート
大規模言語モデル
Transformers 英語

H
h2oai
948
61
Erosumika 7B V3 7.1bpw Exl2
Erosumika-7B-v3は7.1bpw exl2量子化された言語モデルで、8GB VRAMのGPUで16kコンテキストを実行するのに適しています。DARE TIESメソッドで複数のモデルを融合して作成され、娯楽目的のフィクションライティングに主に使用されます。
大規模言語モデル
Transformers 英語

E
Natkituwu
24
1
Midnight Miqu 70B V1.5
その他
Midnight-Miqu-70B-v1.5は、ロールプレイとストーリー創作に特化した700億パラメータの大規模言語モデルで、sophosympatheiaとmigtisseraのモデルを統合して作成されました。
大規模言語モデル
Transformers

M
sophosympatheia
734
199
Lemonaderp 4.5.3 GGUF
ロールプレイに特化した70億パラメータの大規模言語モデル、8192トークンの文脈長をサポート、創造性と陳腐な表現の削減を重視
大規模言語モデル 英語
L
KatyTheCutie
238
28
Phogpt 4B
Bsd-3-clause
PhoGPTは現在最先端の40億パラメータベトナム語生成モデルシリーズで、基本事前学習単一言語モデルPhoGPT-4Bとその対話バリアントPhoGPT-4B-Chatを含みます。
大規模言語モデル
Transformers その他

P
vinai
560
12
Speechless Coder Ds 6.7b
Apache-2.0
speechless-coder-ds-6.7bは、deepseek-ai/deepseek-coder-6.7bをベースに微調整された大規模言語モデルで、コード生成とプログラミング支援能力の向上に特化しています。
大規模言語モデル
Transformers 複数言語対応

S
uukuguy
771
7
Codeninja 1.0 OpenChat 7B
MIT
コード忍者は有名なモデルopenchat/openchat-3.5-1210の強化バージョンで、40万以上のコーディング命令を含む2つの大規模データセットで教師ありファインチューニングを行ってトレーニングされています。
大規模言語モデル
Transformers

C
beowolx
2,998
105
Geitje 7B Chat V2
Apache-2.0
GEITje-7BはMistral 7Bを基にした大規模オープンソースオランダ語モデルで、追加で100億のオランダ語テキストトークンを訓練することで、オランダ語能力とローカル知識が大幅に向上しました。
大規模言語モデル
Transformers その他

G
Rijgersberg
78
17
Geitje 7B Chat
Apache-2.0
Mistral 7Bを基盤とした大規模オープンソースオランダ語対話モデル。追加で100億オランダ語テキストトークンを訓練し、オランダ語能力を大幅に向上
大規模言語モデル
Transformers その他

G
Rijgersberg
38
12
Leo Hessianai 7b Chat
初のLlama - 2をベースに構築された、商用可能なオープンドイツ語基礎言語モデルで、ドイツ語の言語処理に特化しています。
大規模言語モデル
Transformers 複数言語対応

L
LeoLM
2,263
17
Codes 7b
Apache-2.0
CodeS-7BはSQL生成に最適化されたコード大規模言語モデルで、StarCoderBase-7Bを基に増分事前学習を行い、最大8,192トークンの文脈長をサポートします。
大規模言語モデル
Transformers その他

C
seeklhy
409
8
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98