Unireason Qwen3 14B RL I1 GGUF
Apache-2.0
UniReason-Qwen3-14B-RL は量子化された多領域適用モデルで、特にテキスト生成と数学推理タスクに長けています。
大規模言語モデル
Transformers 英語

U
mradermacher
302
1
Gemma 3n E2B It Unsloth Bnb 4bit
Gemma 3n-E2B-itはGoogleが提供する軽量オープンソースのマルチモーダルモデルで、Geminiと同じ技術に基づいて構築され、低リソースデバイス向けに最適化されています。
画像生成テキスト
Transformers 英語

G
unsloth
4,914
2
Llama3 1 Turkish ChatBot
MIT
Meta LLaMA 3.1 8B大規模言語モデルをベースに微調整されたトルコ語教育質問と回答用のチャットボットで、トルコ語教育シーンに特化して最適化されています。
大規模言語モデル その他
L
metehanayhan
176
2
Schreiber Mistral Nemo 12B
Apache-2.0
Schreiber-mistral-nemo-12Bは、mistral-nemo-kartoffel-12Bをベースに微調整された大規模言語モデルで、より強力で正確な言語処理能力を提供することに特化しています。
大規模言語モデル
Transformers

S
nbeerbower
107
1
Wan2.1 14B T2V FusionX FP8 GGUF
Apache-2.0
これはvrgamedevgirl84/Wan14BT2VFusionXモデルに基づくGGUF変換バージョンで、主にテキストから動画生成タスクに使用されます。
テキスト生成ビデオ
W
lym00
490
4
Minicpm4 0.5B
Apache-2.0
MiniCPM4はエッジデバイス向けに設計された高効率大規模言語モデルで、システム革新によりモデルアーキテクチャ、学習データ、学習アルゴリズム、推論システムの4つの重要な次元で極限までの効率向上を実現しています。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
415
20
Xlangai Jedi 3B 1080p GGUF
Apache-2.0
Jedi-3B-1080pはxlangaiによって開発された3Bパラメータモデルで、llama.cppによる量子化処理が施されており、画像テキスト生成タスクに適しています。
大規模言語モデル 英語
X
bartowski
148
1
Arliai QwQ 32B ArliAI RpR V4 GGUF
Apache-2.0
32Bパラメータ規模の量子化大規模言語モデル、ArliAI/QwQ-32B-ArliAI-RpR-v4モデルを基に、llama.cppを使用して多様な精度で量子化され、テキスト生成タスクに適しています。
大規模言語モデル 英語
A
bartowski
1,721
1
Mistralai Devstral Small 2505 GGUF
Apache-2.0
Devstral-Small-2505の量子化バージョンで、多言語テキスト生成タスクをサポートし、ローカル展開と推論に適しています。
大規模言語モデル 複数言語対応
M
bartowski
4,817
10
Llama OuteTTS 1.0 1B
OuteTTS 1.0はLlamaアーキテクチャに基づく多言語テキスト読み上げモデルで、20言語をサポートし、高品質な音声合成と音声クローン機能を備えています。
音声合成 複数言語対応
L
unsloth
233
2
Csm 1b
Apache-2.0
CSM(対話音声モデル)はSesameが開発した1Bパラメータの音声生成モデルで、テキストと音声入力からRVQ音声エンコーディングを生成できます。
音声合成 英語
C
unsloth
2,667
5
Thedrummer Snowpiercer 15B V1 GGUF
MIT
TheDrummer/Snowpiercer-15B-v1モデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
T
bartowski
4,783
1
Sailor2 L 8B Chat GGUF
Apache-2.0
Sailor2は東南アジア地域に特化した多言語大規模言語モデルで、英語、中国語、および複数の東南アジア言語を含む15言語をサポートしています。
大規模言語モデル 複数言語対応
S
QuantFactory
303
2
Dragonkue KoEn E5 Tiny ONNX
Apache-2.0
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語検索タスクに特化して最適化され、テキストを384次元ベクトル空間にマッピングします。
テキスト埋め込み 複数言語対応
D
exp-models
51
1
Bytedance Seed.Seed Coder 8B Reasoning GGUF
Seed-Coder-8B-Reasoning は ByteDance-Seed によって開発された 8B パラメータ規模の大規模言語モデルで、コード生成と推論タスクに特化しています。
大規模言語モデル
B
DevQuasar
1,978
1
Multilingual E5 Small Ko
Apache-2.0
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語検索タスクに特化しており、テキストを384次元のベクトル空間にマッピングします。
テキスト埋め込み 複数言語対応
M
dragonkue
263
3
Cognitivecomputations Dolphin Mistral 24B Venice Edition GGUF
Apache-2.0
Dolphin-Mistral-24B-Venice-EditionのLlamacpp imatrix量子化バージョンで、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
C
bartowski
4,718
6
Qwen Qwen2.5 VL 72B Instruct GGUF
その他
Qwen2.5-VL-72B-Instructのマルチモーダル大規模言語モデル量子化バージョン、画像テキストからテキストタスクをサポート、高精度から低メモリ要求までの多様な量子化レベルに対応。
テキスト生成画像 英語
Q
bartowski
1,336
1
Llama3 2 Merged
これは🤗 transformersライブラリを基にしたモデルで、unsloth技術を使用して最適化されています。具体的な機能や用途については、さらに情報を追加する必要があります。
大規模言語モデル
Transformers

L
zehra123
64
1
Nort5 Finetuned Norsumm
Apache-2.0
ltg/nort5-baseをNorSummデータセットでファインチューニングしたテキスト要約モデルで、ノルウェー語テキスト要約タスクをサポート
テキスト生成
Transformers

N
GloriaABK1
25
0
Xglm 564M
MIT
XGLM-564M は多言語自己回帰言語モデルで、5.64億のパラメータを含み、30言語のバランスの取れたコーパスに基づいて訓練され、合計5000億のサブワードで構成されています。
大規模言語モデル 複数言語対応
X
facebook
11.13k
51
Indicwav2vec Hindi
Apache-2.0
Wav2Vec2アーキテクチャに基づくヒンディー語自動音声認識モデル、AI4Bharatによって開発
音声認識
Transformers その他

I
ai4bharat
34.90k
17
Phi3 Hallucination Judge Merge
MIT
このモデルは、言語モデルの出力における幻覚現象、つまり一貫性はあるが事実誤認や文脈から外れた応答を検出するために使用されます。
大規模言語モデル
Transformers

P
grounded-ai
63
1
English Spanish
Apache-2.0
t5-smallをファインチューニングした英西翻訳モデル、opus100データセットでトレーニング
機械翻訳
Transformers 複数言語対応

E
SoyGema
32
0
Mlotsawa Ground Small
MIT
T5-smallをファインチューニングしたチベット仏教文献翻訳モデルで、ウチェン体チベット文字から英語への翻訳に特化
機械翻訳
Transformers 複数言語対応

M
billingsmoore
33
1
Hypa Orpheus 3b 0.1 Ft Unsloth Merged 16bit
Apache-2.0
Orpheus-3bをファインチューニングした多言語テキスト音声変換モデルで、アフリカの低リソース言語に最適化され、音声クローニングと感情合成をサポート
音声合成
Transformers 複数言語対応

H
hypaai
47
0
Mt5 Small Finetuned Norwegian
Apache-2.0
google/mt5-smallをノルウェー語データセットでファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

M
GloriaABK1
20
0
Dreamgen Lucid V1 Nemo GGUF
その他
dreamgen/lucid-v1-nemo を基にした量子化モデルで、llama.cpp を使用して様々な量子化処理を行い、テキスト生成タスクに適しています。
大規模言語モデル 英語
D
bartowski
6,593
5
Kunorzn Llama 3 3B
KunoRZN-Llama-3-3BはVinkuraAIのフラッグシップ多言語モデルで、12以上のインド言語と英語をサポートし、教育、医療、日常タスク向けに設計されています。
大規模言語モデル
Transformers 複数言語対応

K
VinkuraAI
9,214
4
Ultravox V0 5 Llama 3 2 1b
MIT
meta-llama/Llama-3.2-1B-Instructの重みを事前ロードした多言語テキスト変換モデル
大規模言語モデル
Transformers 複数言語対応

U
FriendliAI
211
0
Hidream Gguf
MIT
HiDream-I1-Fullはテキストから画像を生成する拡散モデルで、高品質なアニメスタイルの画像を生成できます。
テキスト生成画像 英語
H
calcuis
34.83k
35
3b De Ft Research Release Q4 K M GGUF
Apache-2.0
これはcanopylabs/3b-de-ft-research_releaseモデルから変換されたGGUF形式のモデルで、ドイツ語テキスト処理に特化して最適化されています。
大規模言語モデル ドイツ語
3
TheVisitorX
16
0
Erax Translator V1.0 I1 GGUF
EraX-Translator-V1.0の量子化バージョンで、多言語翻訳をサポートし、特に低リソース環境や古代中国語、仏教典籍の翻訳に適しています。
機械翻訳 複数言語対応
E
mradermacher
659
1
Erax Translator V1.0 GGUF
EraX-Translator-V1.0 は多言語翻訳モデルで、ベトナム語、英語、ロシア語、フランス語、中国語などの多言語翻訳タスクをサポートし、特に低リソース言語や古代中国語および仏教典籍の翻訳に適しています。
機械翻訳 複数言語対応
E
mradermacher
361
1
Orpheus TTS MediaSpeech
これはMediaSpeechデータセットで訓練されたアラビア語モデルです。具体的な用途と機能については、より多くの情報が必要です。
大規模言語モデル
Transformers アラビア語

O
kadirnar
21
2
Orpheus Cml FR
canopylabs/orpheus-3b-0.1-pretrainedを基にファインチューニングしたフランス語テキスト生成モデル
大規模言語モデル
Transformers フランス語

O
kadirnar
24
2
Indicbart Mr Test
IndicBART-mr-testはai4bharat/IndicBARTモデルを未知のデータセットでファインチューニングしたバージョンで、主にテキスト生成タスクに使用され、マラーティー語をサポートします。
大規模言語モデル
Transformers

I
AmaanDhamaskar
47
1
Cupidon Mini Ro GGUF
Apache-2.0
これはBlackKakapo/cupidon-mini-roモデルに基づく静的量子化バージョンで、主に文変換と特徴抽出タスクに使用されます。
テキスト埋め込み その他
C
mradermacher
333
1
Whisper Large V3 Russian Ties Podlodka V1.2
TIES融合手法に基づくロシア語音声認識モデル。2つのWhisper-large-v3ロシア語バリアントを統合し、電話録音シナリオに最適化
音声認識
Transformers その他

W
Apel-sin
2,408
1
Speecht5 Turkish Tuned
MIT
マイクロソフトのSpeechT5アーキテクチャに基づくトルコ語のテキストを音声に変換するモデルで、特定のデータセットで微調整され最適化されています。
音声合成
Transformers

S
ahmeterdempmk
18
1
- 1
- 2
- 3
- 4
- 5
- 6
- 10
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98