# 知識蒸留

Openbuddy OpenBuddy R1 0528 Distill Qwen3 32B Preview0 QAT GGUF
Apache-2.0
これはOpenBuddy-R1-0528-Distill-Qwen3-32B-Preview0-QATの量子化バージョンで、量子化技術を利用して、さまざまなハードウェア条件下でより効率的にモデルを実行できます。
大規模言語モデル 複数言語対応
O
bartowski
720
1
Voice Based Stress Recognition
MIT
軽量音声ストレス認識モデル。知識蒸留技術を用いて訓練され、エッジデバイスでのリアルタイムストレス検出に適しています。
音声分類 PyTorch 英語
V
forwarder1121
1,458
1
Openr1 Distill 7B
Apache-2.0
OpenR1-Distill-7BはQwen2.5-Math-7BをMixture-of-Thoughtsデータセットでファインチューニングしたバージョンで、言語モデルに段階的な推論を教えることを目的としています。
大規模言語モデル Transformers 英語
O
open-r1
134
6
Unime Phi3.5 V 4.2B
MIT
UniMEはマルチモーダル大規模モデルに基づく汎用埋め込み学習モデルで、モーダルの壁を打破し、クロスモーダル検索と埋め込み学習を実現することに焦点を当てています。
マルチモーダルアライメント Transformers 英語
U
DeepGlint-AI
54
4
Unime LLaVA 1.6 7B
MIT
UniMEはマルチモーダル大規模モデルに基づく汎用埋め込み学習モデルで、336×336の画像解像度でトレーニングされ、MMEBランキングで1位を獲得しています。
画像生成テキスト Transformers 英語
U
DeepGlint-AI
188
3
Ultralong Thinking
SLERP法でマージされた8Bパラメータ言語モデル、DeepSeek-R1とNemotron-8Bモデルの利点を統合
大規模言語モデル Transformers
U
mergekit-community
69
2
Splade Disco Human Mistral
SPLADE++を改良した対話型検索モデルで、複数の教師モデルを用いた蒸留戦略によりマルチターン対話クエリの意味理解を最適化
テキスト埋め込み 英語
S
slupart
27
3
Splade Disco Human
SPLADE++モデルを基に対話型検索向けに適応させたバージョンで、QReCCデータセットを使用してクエリエンコーダを微調整し、マルチターン対話型検索の性能を最適化しました。
テキスト埋め込み 英語
S
slupart
22
2
Minimaid L2
Apache-2.0
MiniMaid-L2はMiniMaid-L1をさらに最適化したロールプレイ専用モデルで、知識蒸留と大規模データセットによるトレーニングを通じて、3B規模のモデルの中で優れた性能を発揮します。
大規模言語モデル Transformers 英語
M
N-Bot-Int
63
2
Distill Any Depth Large Hf
MIT
Distill-Any-Depthは新しいSOTA単眼深度推定モデルで、知識蒸留アルゴリズムを用いて訓練されています。
3Dビジョン Transformers
D
xingyang1
2,322
2
Distill Any Depth Small Hf
MIT
Distill-Any-Depthは知識蒸留アルゴリズムで訓練されたSOTA単眼深度推定モデルで、効率的かつ正確に深度推定が可能です。
3Dビジョン Transformers
D
xingyang1
1,214
3
ARWKV R1 1B5
Apache-2.0
ARWKV-R1-1B5 はRNNベースの70億パラメータモデルの初期プレビュー版で、DeepSeek-R1-Distill-Qwen-1.5Bからの3段階の知識蒸留トレーニングにより作成され、コンテキスト長は2kです。
大規模言語モデル Transformers 複数言語対応
A
RWKV-Red-Team
164
4
Deepseer R1 Vision Distill Qwen 1.5B Google Vit Base Patch16 224
Apache-2.0
DeepSeerはDeepSeek-R1モデルを基に開発された視覚言語モデルで、思考連鎖推論能力をサポートし、対話テンプレートを通じて視覚モデルを訓練します。
画像生成テキスト Transformers
D
mehmetkeremturkcan
25
2
Qwen2.5 14B DeepSeek R1 1M Uncensored
これはQwen2.5-14B-DeepSeek-R1-1Mモデルをベースに、TIESメソッドでDeepSeek-R1-Distill-Qwen-14B-abliterated-v2を融合した14Bパラメータ規模の大規模言語モデルです
大規模言語モデル Transformers
Q
FiditeNemini
154
6
Deepseek R1 Distill Qwen 32B Japanese
MIT
CyberAgentがリリースした日本語大規模言語モデル、Qwen-32Bを蒸留して最適化
大規模言語モデル 日本語
D
cyberagent
1,190
250
Gguf Jina Reranker V1 Tiny En
Apache-2.0
高速リランキング専用に設計されたモデルで、JinaBERTアーキテクチャに基づき、長文シーケンス処理(最大8,192トークン)をサポートします。
テキスト埋め込み 英語
G
Felladrin
3,831
1
Deepseek R1 BF16
MIT
DeepSeek-R1はLlamaアーキテクチャに基づく8Bパラメータモデルで、DeepSeekチームによって開発され、効率的な推論とファインチューニングに焦点を当てています。
大規模言語モデル Transformers 英語
D
unsloth
944
22
Llama DNA 1.0 8B Instruct
Llamaアーキテクチャに基づく最先端のバイリンガル言語モデルで、韓国語の理解と生成能力を特に最適化しつつ、強力な英語能力を保持しています。
大規模言語モデル Transformers 複数言語対応
L
dnotitia
661
58
Koala Lightning 700m
KOALA-Lightning-700MはSDXL-Lightningを基に知識蒸留で訓練された効率的なテキスト生成画像モデルで、生成品質を維持しながら推論速度を大幅に向上
画像生成
K
etri-vilab
170
6
Koala Lightning 1b
KOALA-Lightning-1BはSDXL-Lightningに基づく知識蒸留モデルで、U-Net構造を圧縮することで効率的なテキストから画像生成を実現、パラメータ規模1.16B
テキスト生成画像
K
etri-vilab
390
7
Protgpt2 Distilled Tiny
Apache-2.0
ProtGPT2の蒸留バージョン、知識蒸留手法によりより効率的な小型モデルに圧縮、性能を維持しながら推論速度を向上
タンパク質モデル Transformers
P
littleworth
157
4
Splade PP En V2
Apache-2.0
工業シーンに最適化されたSPLADE++モデルの実装で、検索品質と効率をバランスさせ、文書拡張と疎な表現学習をサポートします。
テキスト埋め込み Transformers 英語
S
prithivida
181
13
Phi 2 Sft Ultrachat Full
MIT
microsoft/phi-2をultrachat_200kデータセットでファインチューニングした大規模言語モデルで、対話生成タスクに適しています。
大規模言語モデル Transformers その他
P
lole25
68
2
Distil Medium.en
MIT
Distil-WhisperはWhisperモデルの蒸留バージョンで、オリジナルより6倍速く、サイズが49%縮小され、英語音声認識タスクでオリジナルに近い性能を維持しています。
音声認識 英語
D
distil-whisper
186.85k
120
Distil Large V2
MIT
Distil-WhisperはWhisperモデルの蒸留版で、速度が6倍向上し、サイズが49%縮小され、非分布評価セットでの性能はWERでわずか1%の差しかありません。
音声認識 英語
D
distil-whisper
42.65k
508
Mmlw Retrieval Roberta Large
Apache-2.0
MMLW(私はより良いニュースを得なければならない)はポーランド語のニューラルテキストエンコーダーで、情報検索タスク向けに最適化されています。
テキスト埋め込み Transformers その他
M
sdadas
237.90k
12
Mmlw Retrieval Roberta Base
Apache-2.0
MMLW(私はより良いニュースを得なければならない)はポーランド語のニューラルテキストエンコーダーで、情報検索タスクに最適化されており、クエリと段落を768次元ベクトルに変換できます。
テキスト埋め込み Transformers その他
M
sdadas
408
1
Bk Sdm Small
Openrail
BK-SDMはアーキテクチャ圧縮を施した安定拡散モデルで、効率的な汎用テキスト画像合成を実現。U-Netの残差ブロックとアテンションブロックを除去することで軽量化を達成。
画像生成
B
nota-ai
745
31
LEALLA Large
Apache-2.0
LEALLAは、109言語をサポートする軽量で言語非依存の文埋め込みモデルのセットで、LaBSEから蒸留されました。多言語文埋め込みおよび二言語テキスト検索に適しています。
テキスト埋め込み 複数言語対応
L
setu4993
37
8
LEALLA Small
Apache-2.0
LEALLA-small は軽量で言語に依存しない文埋め込みモデルで、109言語をサポートし、多言語文埋め込みやバイリンガルテキスト検索タスクに適しています。
テキスト埋め込み 複数言語対応
L
setu4993
41
14
Distil Ita Legal Bert
知識蒸留技術に基づいて構築された軽量なイタリア法律分野向けBERTモデル、4層のTransformer構造のみを有する
テキスト埋め込み Transformers
D
dlicari
353
0
Rbt4 H312
Apache-2.0
MiniRBTは知識蒸留技術に基づいて開発された中国語小型事前学習モデルで、全単語マスキング技術を用いて学習効率を最適化しています。
大規模言語モデル Transformers 中国語
R
hfl
34
5
Minirbt H288
Apache-2.0
MiniRBTは知識蒸留技術に基づいて開発された中国語小型事前学習モデルで、全単語マスキング技術を用いて学習効率を最適化しています。
大規模言語モデル Transformers 中国語
M
hfl
405
8
Minirbt H256
Apache-2.0
MiniRBTは知識蒸留技術に基づく中国語小型事前学習モデルで、全単語マスキング技術を組み合わせ、様々な中国語自然言語処理タスクに適しています。
大規模言語モデル Transformers 中国語
M
hfl
225
7
Clip Vit Large Patch14 Ko
MIT
知識蒸留を用いて訓練された韓国語CLIPモデルで、韓国語と英語のマルチモーダル理解をサポート
テキスト生成画像 Transformers 韓国語
C
Bingsu
4,537
15
Re2g Qry Encoder Fever
Apache-2.0
Re2Gは、知識集約型タスクのためのニューラル初期検索と再ランキングを組み合わせた生成モデルです。この質問エンコーダーは、検索のために質問をベクトルにエンコードするRe2Gシステムの構成要素です。
テキスト埋め込み Transformers
R
ibm-research
17
0
Re2g Qry Encoder Nq
Apache-2.0
Re2Gは知識集約型タスクのためのニューラル検索、再ランキング、生成を統合したエンドツーエンドシステムです。このモデルはそのNQ(Natural Questions)質問エンコーダーコンポーネントです。
質問応答システム Transformers
R
ibm-research
14
0
Efficient Splade V Large Query
高効率SPLADEモデルは段落検索に使用され、デュアルモデルアーキテクチャを採用してクエリとドキュメントの推論をそれぞれ処理し、MS MARCOデータセットで優れた性能を発揮します。
テキスト埋め込み Transformers 英語
E
naver
540
4
Kominilm
KoMiniLMは軽量な韓国語言語モデルで、大規模言語モデルの実際のアプリケーションにおける遅延と容量制限の問題を解決することを目的としています。
大規模言語モデル Transformers
K
BM-K
244
2
Distilbert Base Uncased Finetuned Squad
Apache-2.0
蒸留BERTベース版を質問応答データセットで微調整したモデルで、質問応答タスクに適しています
質問応答システム Transformers
D
jhoonk
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase