# 8Bパラメータ規模

Deepseek R1 0528 Qwen3 8B AWQ 4bit
MIT
DeepSeek-R1-0528-Qwen3-8BのAWQ量子化バージョンで、特定のシーンでの高効率推論に適しています。
大規模言語モデル Transformers
D
hxac
179
2
Qwen3 8B Grpo Medmcqa
Qwen/Qwen3-8Bをmedmcqa-grpoデータセットで微調整したバージョンで、医学選択問題回答タスクに特化
大規模言語モデル Transformers
Q
mlxha
84
1
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
DPO手法でファインチューニングされた言語モデル、テキスト生成タスクに適応
大規模言語モデル Transformers
A
shisa-ai
38
2
Fibonacci 1 EN 8b Chat.p1 5
MIT
Fibonacci-1-EN-8b-Chat.P1_5はLLaMAアーキテクチャに基づく大規模言語モデルで、80.3億のパラメータを持ち、自然言語処理タスクとテキスト対話に最適化されています。
大規模言語モデル 複数言語対応
F
fibonacciai
132
11
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8BはAllenAIによって開発された大規模言語モデルで、Llamaアーキテクチャを基にしており、80億のパラメータを持ち、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
113
2
Wiroai Turkish Llm 8b
Apache-2.0
WiroAIが開発したトルコ語大規模言語モデル、Llama-3.1-8B-Instructを基に微調整され、トルコ語テキスト生成と会話タスクに特化しています。
大規模言語モデル Transformers その他
W
WiroAI
3,117
9
Llama 3.1 8b ITA
Meta-Llama-3.1-8B-Instructを基にイタリア語サポートを最適化した大規模言語モデル
大規模言語モデル Transformers 複数言語対応
L
DeepMount00
6,719
11
Tanuki 8B Dpo V1.0
Apache-2.0
Tanuki-8Bは8Bパラメータの日本語大規模言語モデルで、SFTとDPOによって会話タスク向けに最適化されており、GENIAC松尾研究室によって開発されました
大規模言語モデル Transformers 複数言語対応
T
weblab-GENIAC
1,143
41
Orca Mini V6 8b
複数のSFTデータセットでトレーニングされたLlama 3 8Bパラメータ規模の言語モデルで、テキスト生成タスクをサポート
大規模言語モデル Transformers 英語
O
pankajmathur
21
2
Llama 3 Chinese 8b Instruct V2
Apache-2.0
Meta-Llama-3-8B-Instructを基に微調整した中国語指導モデルで、対話やQ&Aなどのシナリオに適しています。
大規模言語モデル Transformers 複数言語対応
L
hfl
49
39
Llama 3 8B Instruct Portuguese V0.2
これはLlama-3アーキテクチャを基にした8Bパラメータ規模のポルトガル語命令チューニングモデルで、ポルトガル語に最適化されています。
大規模言語モデル Transformers その他
L
adalbertojunior
20
4
Llama 3 8b It Ko Chang
Apache-2.0
Meta-Llama-3-8B-Instructを基にした韓国語コマンドチューニングバージョンで、韓国語の理解と生成能力を特別に最適化
大規模言語モデル Transformers 韓国語
L
lcw99
18
10
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase