# 高パラメータ規模

Llm Jp 3.1 13b Instruct4
Apache-2.0
LLM-jp-3.1-13b-instruct4は日本国立情報学研究所によって開発された大規模言語モデルで、指令事前学習により指令遵守能力が大幅に向上し、日本語や英語などの複数の言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
L
llm-jp
176
7
Gemma 3 4b It Uncensored DBL X Int2 Quantized
Transformersライブラリに基づく事前学習済みモデル、自然言語処理タスクに適応
大規模言語モデル Transformers
G
Kfjjdjdjdhdhd
39
1
Gemma 3 27b It Mlx
これはGoogle Gemma 3 27B ITモデルを変換したMLXバージョンで、画像テキストからテキストへのタスクをサポートします。
画像生成テキスト Transformers
G
stephenwalker
24
1
Llm Jp 13b V2.0
Apache-2.0
日本の共同プロジェクトLLM-jpによって開発された大規模言語モデルで、日本語と英語をサポートし、主にテキスト生成タスクに使用されます。
大規模言語モデル Transformers 複数言語対応
L
llm-jp
570
14
Meta Llama 3 70B Instruct AWQ
その他
Meta-Llama-3-70B-InstructはMetaがリリースした700億パラメータ規模の命令チューニング大規模言語モデルで、対話ユースケースに最適化されており、安全性と有用性の面で優れた性能を発揮します。
大規模言語モデル Transformers 英語
M
TechxGenus
210
12
Midnight Miqu 103B V1.5
Miquベースの103B混合モデル、32Kコンテキスト長をサポート、個人使用のみ
大規模言語モデル Transformers
M
FluffyKaeloky
63
18
Kullm Polyglot 12.8b V2
Apache-2.0
EleutherAI/polyglot-ko-12.8bを基にしたKULLM v2のファインチューニング版で、韓国語をサポートする多言語大規模言語モデル
大規模言語モデル Transformers 韓国語
K
nlpai-lab
1,901
52
Glm 2b
GLM-2Bは自己回帰空白埋め目標に基づいて事前学習された汎用言語モデルで、様々な自然言語理解と生成タスクをサポートします。
大規模言語モデル Transformers 英語
G
THUDM
60
16
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase