# 低リソース効率的推論

Samastam It V1
SamastamはSarvam-1モデルの初期ガイドバリアントで、Alpaca-cleanedデータセットでファインチューニングされ、多言語命令応答をサポートします。
大規模言語モデル Transformers
S
hathibelagal
188
1
Hyperclovax SEED Text Instruct 0.5B GGUF
その他
llama.cppで生成された0.5Bパラメータ規模のテキスト生成モデルで、命令型テキスト生成タスクをサポート
大規模言語モデル
H
Mungert
407
1
Arcana Qwen3 2.4B A0.6B
Apache-2.0
これはQwen3ベースの混合専門家モデル(MoE)で、総パラメータ数は24億、4つの6億パラメータの専門家モデルを含み、より高い効率と低いメモリ使用量でより正確な結果を提供することを目的としています。
大規模言語モデル Transformers 複数言語対応
A
suayptalha
199
21
Falcon H1 34B Instruct GPTQ Int8
その他
ファルコン-H1はTIIが開発した高性能ハイブリッドアーキテクチャ言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
大規模言語モデル Transformers
F
tiiuae
105
3
Gemma 3 1B It Qat GGUF
Googleが提供する軽量オープンソース大規模言語モデル、様々なテキスト生成タスクに適応
大規模言語モデル
G
lmstudio-community
5,014
3
Granite 3.3 2b Instruct GGUF
Apache-2.0
IBM-Graniteの20億パラメータ指導モデル、多言語と長文脈タスクをサポートし、構造化推論能力を備える。
大規模言語モデル
G
lmstudio-community
444
2
Mxbai Embed Large V1 Q8 0 GGUF
Apache-2.0
mxbai-angle-large-v1 は、分類、クラスタリング、検索、再ランキングなど、さまざまな自然言語処理タスクに適した高性能な埋め込みモデルです。
テキスト埋め込み 英語
M
magicunicorn
24
1
Sarvam 1
Sarvam-1はインド言語に最適化された20億パラメータの言語モデルで、10のインド言語で優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
S
sarvamai
3,386
55
Llama 3.2 1B Instruct GGUF
Llama 3.2はMetaが開発した多言語大規模言語モデルシリーズの1つで、1Bパラメータの命令調整バージョンであり、多言語対話ユースケースに最適化されています。
大規模言語モデル Transformers 英語
L
unsloth
282.08k
33
Llama 3.1 8B Instuct Uz GGUF
これはbehbudiy/Llama-3.1-8B-Instuct-Uzの静的量子化バージョンで、ウズベク語と英語をサポートし、様々なテキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
L
mradermacher
241
1
Turkish Llama 8b DPO V0.1
CosmosLLaMa-指示 DPOはトルコ語テキスト生成タスク専用に設計された大規模言語モデルで、文脈に合致した一貫性のあるテキストを生成できます。
大規模言語モデル その他
T
ytu-ce-cosmos
5,182
47
Llama 3.1 Korean 8B Instruct
Meta-Llama-3.1をファインチューニングした韓国語大規模言語モデルで、コマンド理解と生成タスクに特化
大規模言語モデル Transformers
L
sh2orc
3,191
22
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Smallは70億パラメータの軽量級最先端オープンソースモデルで、NVIDIA GPU向けに最適化されたONNXバージョンであり、8Kの文脈長をサポートし、強力な推論能力を備えています。
大規模言語モデル Transformers
P
microsoft
115
12
Gemma Portuguese Luana 2b
Apache-2.0
これはGemmaアーキテクチャに基づく20億パラメータ規模のポルトガル語大規模言語モデルで、特にブラジルポルトガル語に最適化されており、指令追従とテキスト生成タスクをサポートします。
大規模言語モデル Transformers その他
G
rhaymison
115
4
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1はMistralアーキテクチャに基づく7Bパラメータのドイツ語言語モデルで、ドイツ語と英語をサポートし、Apache-2.0ライセンスで公開されています。
大規模言語モデル Transformers 複数言語対応
D
TheBloke
81
4
Paraphrase Multilingual MiniLM L12 V2.gguf
Apache-2.0
50以上の言語をサポートする多言語文埋め込みモデル、テキスト類似度計算と意味的検索が可能
テキスト埋め込み 複数言語対応
P
mykor
188
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase