Deepseek R1 0528 Qwen3 8B AWQ 4bit
MIT
DeepSeek-R1-0528-Qwen3-8BのAWQ量子化バージョンで、特定のシーンでの高効率推論に適しています。
大規模言語モデル
Transformers

D
hxac
179
2
Qwen3 8B Grpo Medmcqa
Qwen/Qwen3-8Bをmedmcqa-grpoデータセットで微調整したバージョンで、医学選択問題回答タスクに特化
大規模言語モデル
Transformers

Q
mlxha
84
1
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
DPO手法でファインチューニングされた言語モデル、テキスト生成タスクに適応
大規模言語モデル
Transformers

A
shisa-ai
38
2
Fibonacci 1 EN 8b Chat.p1 5
MIT
Fibonacci-1-EN-8b-Chat.P1_5はLLaMAアーキテクチャに基づく大規模言語モデルで、80.3億のパラメータを持ち、自然言語処理タスクとテキスト対話に最適化されています。
大規模言語モデル 複数言語対応
F
fibonacciai
132
11
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8BはAllenAIによって開発された大規模言語モデルで、Llamaアーキテクチャを基にしており、80億のパラメータを持ち、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
113
2
Wiroai Turkish Llm 8b
Apache-2.0
WiroAIが開発したトルコ語大規模言語モデル、Llama-3.1-8B-Instructを基に微調整され、トルコ語テキスト生成と会話タスクに特化しています。
大規模言語モデル
Transformers その他

W
WiroAI
3,117
9
Llama 3.1 8b ITA
Meta-Llama-3.1-8B-Instructを基にイタリア語サポートを最適化した大規模言語モデル
大規模言語モデル
Transformers 複数言語対応

L
DeepMount00
6,719
11
Tanuki 8B Dpo V1.0
Apache-2.0
Tanuki-8Bは8Bパラメータの日本語大規模言語モデルで、SFTとDPOによって会話タスク向けに最適化されており、GENIAC松尾研究室によって開発されました
大規模言語モデル
Transformers 複数言語対応

T
weblab-GENIAC
1,143
41
Orca Mini V6 8b
複数のSFTデータセットでトレーニングされたLlama 3 8Bパラメータ規模の言語モデルで、テキスト生成タスクをサポート
大規模言語モデル
Transformers 英語

O
pankajmathur
21
2
Llama 3 Chinese 8b Instruct V2
Apache-2.0
Meta-Llama-3-8B-Instructを基に微調整した中国語指導モデルで、対話やQ&Aなどのシナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

L
hfl
49
39
Llama 3 8B Instruct Portuguese V0.2
これはLlama-3アーキテクチャを基にした8Bパラメータ規模のポルトガル語命令チューニングモデルで、ポルトガル語に最適化されています。
大規模言語モデル
Transformers その他

L
adalbertojunior
20
4
Llama 3 8b It Ko Chang
Apache-2.0
Meta-Llama-3-8B-Instructを基にした韓国語コマンドチューニングバージョンで、韓国語の理解と生成能力を特別に最適化
大規模言語モデル
Transformers 韓国語

L
lcw99
18
10
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98