# 軽量級大規模モデル

A.X 4.0 Light Gguf
Apache-2.0
A.X 4.0 LightはSKT AI Model Labによって開発された軽量級大規模言語モデルで、Qwen2.5をベースに構築され、韓国語理解と企業デプロイに最適化されています。
大規模言語モデル Transformers 複数言語対応
A
mykor
535
2
Qwen3 Embedding 4B 4bit DWQ
Apache-2.0
これはQwen3-Embedding-4Bモデルを変換した4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
テキスト埋め込み
Q
mlx-community
369
3
Qwen3 0.6B ONNX
Qwen3-0.6Bは軽量級大規模言語モデルで、ONNX形式に変換されてウェブブラウザで利用可能です。
大規模言語モデル Transformers
Q
onnx-community
5,051
8
Minicpm O 2 6 Gguf
MiniCPM-o 2.6はマルチモーダルモデルで、視覚と言語タスクをサポートし、llama.cpp向けに設計されています。
画像生成テキスト
M
openbmb
5,660
101
Sapie Gemma2 9B IT
Google Gemma-2-9b-itモデルを基に韓国語向けに最適化したバージョンで、Saltwareが開発し、韓国語自然言語処理タスクに適しています。
大規模言語モデル Transformers 韓国語
S
hometax
171
4
Gemma 2 9b
GemmaはGoogleが提供する軽量級の最先端オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
45.11k
655
Gemma 2 9b It
GemmaはGoogleが提供する軽量級オープン大規模言語モデルシリーズで、Geminiモデルを作成したのと同じ技術に基づいて構築されており、さまざまなテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
336.05k
705
Meta Llama 3 8B Instruct Q4 K M GGUF
その他
Llama 3 8B 指令モデルの GGUF 定量版で、ローカル推論に適し、高効率なデプロイをサポートします。
大規模言語モデル 英語
M
NoelJacob
1,131
1
Minicpm 2B 128k
MiniCPMは面壁智能と清華大学自然言語処理研究所が共同開発したエッジデバイス用大規模言語モデルで、非単語埋め込みパラメータ数はわずか24億(2.4B)で、128kのコンテキストウィンドウをサポートしています。
大規模言語モデル Transformers 複数言語対応
M
openbmb
145
42
Gemma 1.1 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
71.01k
158
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase