A.X 4.0 Light Gguf
Apache-2.0
A.X 4.0 LightはSKT AI Model Labによって開発された軽量級大規模言語モデルで、Qwen2.5をベースに構築され、韓国語理解と企業デプロイに最適化されています。
大規模言語モデル
Transformers 複数言語対応

A
mykor
535
2
Qwen3 Embedding 4B 4bit DWQ
Apache-2.0
これはQwen3-Embedding-4Bモデルを変換した4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
テキスト埋め込み
Q
mlx-community
369
3
Qwen3 0.6B ONNX
Qwen3-0.6Bは軽量級大規模言語モデルで、ONNX形式に変換されてウェブブラウザで利用可能です。
大規模言語モデル
Transformers

Q
onnx-community
5,051
8
Minicpm O 2 6 Gguf
MiniCPM-o 2.6はマルチモーダルモデルで、視覚と言語タスクをサポートし、llama.cpp向けに設計されています。
画像生成テキスト
M
openbmb
5,660
101
Sapie Gemma2 9B IT
Google Gemma-2-9b-itモデルを基に韓国語向けに最適化したバージョンで、Saltwareが開発し、韓国語自然言語処理タスクに適しています。
大規模言語モデル
Transformers 韓国語

S
hometax
171
4
Gemma 2 9b
GemmaはGoogleが提供する軽量級の最先端オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
45.11k
655
Gemma 2 9b It
GemmaはGoogleが提供する軽量級オープン大規模言語モデルシリーズで、Geminiモデルを作成したのと同じ技術に基づいて構築されており、さまざまなテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
336.05k
705
Meta Llama 3 8B Instruct Q4 K M GGUF
その他
Llama 3 8B 指令モデルの GGUF 定量版で、ローカル推論に適し、高効率なデプロイをサポートします。
大規模言語モデル 英語
M
NoelJacob
1,131
1
Minicpm 2B 128k
MiniCPMは面壁智能と清華大学自然言語処理研究所が共同開発したエッジデバイス用大規模言語モデルで、非単語埋め込みパラメータ数はわずか24億(2.4B)で、128kのコンテキストウィンドウをサポートしています。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
145
42
Gemma 1.1 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
71.01k
158
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98