# 知識蒸留強化

Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
これはQwen2.5-32Bをベースにした統合モデルで、DeepSeek-R1-Distill-Qwen-32B、QwQ-32B、Sky-T1-32B-Flashの特徴を融合し、性能向上を図っています。
大規模言語モデル Transformers
Q
sm54
14
4
Yixin Distill Qwen 72B 4.5bpw H6 Exl2
Apache-2.0
Qwen2.5-72Bをベースに強化学習蒸留を行った高性能数学推論・汎用知識処理モデルで、数学推論と汎用知識タスクで優れた性能を発揮します。
大規模言語モデル 複数言語対応
Y
LoneStriker
37
3
ABEJA Qwen2.5 7b Japanese V0.1
Apache-2.0
Qwen/Qwen2.5-7B-Instructをベースに日本語訓練を施したモデルで、蒸留学習により実現され、コマンド追従性能が向上しています。
大規模言語モデル Transformers 日本語
A
abeja
521
6
L3.3 Cu Mai R1 70b
Llama3アーキテクチャに基づく70Bパラメータの大規模言語モデル、特別な最適化処理を施した
大規模言語モデル Safetensors
L
Steelskull
164
14
Unhinged Author 70B
TIES手法でマージされた70Bパラメータの大規模言語モデルで、Steelskull/L3.3-MS-Nevoria-70bをベースモデルとしてDeepSeek-R1-Distill-Llama-70Bモデルを融合
大規模言語モデル Transformers
U
FiditeNemini
44
3
Harmaug Guard
Apache-2.0
DeBERTa-v3-largeをベースに微調整されたセキュリティ保護モデルで、大規模言語モデルとの対話中の不安全な内容を検出し、脱獄攻撃を防止します。
テキスト分類 Transformers
H
hbseong
705
39
Llama 3.2 1B Instruct AWQ
Llama 3.2シリーズは多言語大規模言語モデルで、1Bと3Bのパラメータ規模を持ち、多言語対話ユースケース向けに最適化されており、エージェント検索や要約タスクを含みます。
大規模言語モデル Transformers 複数言語対応
L
AMead10
429
5
Llama 3.2 3B
Llama 3.2はMetaが開発した多言語大規模言語モデルシリーズで、1Bと3B規模の事前学習及び命令調整生成モデルを含み、多言語対話シーンに最適化され、テキスト入力/出力をサポートします。
大規模言語モデル Transformers 複数言語対応
L
meta-llama
602.29k
555
Llama 3.2 1B Instruct
Llama 3.2はMetaが開発した多言語大規模言語モデルシリーズで、1Bおよび3B規模の事前学習および命令チューニング生成モデルを含み、多言語対話シナリオ向けに最適化され、インテリジェント検索と要約タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
L
meta-llama
2.4M
901
Splade PP En V1
Apache-2.0
SPLADE++はスパースニューラル情報検索モデルで、知識蒸留と効率最適化により検索品質と効率のバランスを実現
テキスト埋め込み Transformers 英語
S
prithivida
36.03k
24
Relullama 7B
Llama 2 7Bを微調整したReLU活性化スパース大規模言語モデル、動的パラメータ選択により計算効率を向上
大規模言語モデル Transformers 英語
R
SparseLLM
5,323
11
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase