# 蒸留モデル

Deepseek R1 Distill Qwen 7B
DeepSeek-R1-Distill-Qwen-7B は deepseek-ai によってリリースされた蒸留版大規模言語モデルで、Qwen-7B アーキテクチャに基づいており、テキスト生成タスクに適しています。
大規模言語モデル Transformers
D
mlx-community
1,045
4
OPENCLIP SigLIP Tiny 14 Distill SigLIP 400m Cc9m
MIT
SigLIPアーキテクチャに基づく軽量な視覚言語モデルで、より大きなSigLIP-400mモデルから蒸留技術を用いて知識を抽出し、ゼロショット画像分類タスクに適しています。
画像分類
O
PumeTu
30
0
Quasar 3.0 Instract V2
Quasar-3.0-7Bは間もなくリリースされる400B Quasar 3.0モデルの蒸留バージョンで、Quasarアーキテクチャの初期の実力と可能性を示しています。
大規模言語モデル Transformers
Q
silx-ai
314
8
Monoelectra Base
Apache-2.0
ELECTRAアーキテクチャに基づくテキストランキング用クロスエンコーダで、検索結果の再ランキングタスクに使用されます
テキスト埋め込み Transformers 英語
M
cross-encoder
151
6
BERTA
MIT
BERTAはFRIDAモデルの埋め込みベクトルをLaBSE-ru-turboに蒸留して得られたもので、ロシア語と英語の文の埋め込みベクトルを計算するために使用され、複数のプレフィックスタスクをサポートします。
テキスト埋め込み Transformers 複数言語対応
B
sergeyzh
7,089
12
Distill Any Depth Small Hf
Apache-2.0
Distill-Any-Depth は、画像から深度情報を推定するための transformers アーキテクチャに基づくモデルです。
3Dビジョン Transformers
D
keetrap
99
1
FLUX.1 Lite GGUF
その他
Flux.1 LiteはFLUX.1-devモデルから蒸留された80億パラメータのTransformerモデルで、テキストから画像生成タスクに最適化されており、精度を維持しながらメモリ使用量を削減し速度を向上させます。
テキスト生成画像
F
gpustack
5,452
3
Faster Whisper Large V3 French Distil Dec16
MIT
Whisper-Large-V3のフランス語蒸留バージョン、デコーダ層数を減らすことで推論効率を最適化しつつ良好な性能を維持
音声認識 Transformers フランス語
F
brandenkmurray
25
3
Test Push
Apache-2.0
distilvitはVIT画像エンコーダーと蒸留版GPT-2テキストデコーダーを基にした画像からテキストへのモデルで、画像のテキスト説明を生成できます。
画像生成テキスト Transformers
T
tarekziade
17
0
Vit Base Patch16 224 Distilgpt2
Apache-2.0
DistilViTは、視覚Transformer(ViT)と蒸留版GPT-2に基づく画像キャプション生成モデルで、画像をテキスト記述に変換できます。
画像生成テキスト Transformers
V
tarekziade
17
0
Distil Whisper Large V3 German
Apache-2.0
distil-whisper技術に基づくドイツ語音声認識モデルで、パラメータ数は7.56億、高品質を維持しながらより高速な推論を実現。
音声認識 Transformers ドイツ語
D
primeline
207
15
Kotoba Whisper V1.0
Apache-2.0
Kotoba-Whisperは、Asahi UshioとKotoba Technologiesが共同開発した日本語自動音声認識の蒸留版Whisperモデルセットで、オリジナルのlarge-v3に比べて6.3倍高速でありながら、同等の低エラー率を維持しています。
音声認識 Transformers 日本語
K
kotoba-tech
2,397
53
Distil Large V3
MIT
Distil-WhisperはWhisper large-v3の知識蒸留バージョンで、英語自動音声認識に特化し、より高速な推論速度を提供しながら、オリジナルモデルに近い精度を維持します。
音声認識 英語
D
distil-whisper
417.11k
311
Distill Whisper Th Medium
MIT
Whisperアーキテクチャに基づく蒸留版自動音声認識モデルで、タイ語に最適化されており、性能と効率性を兼ね備えています
音声認識 Transformers
D
biodatlab
303
2
Dist Mpnet Paracrawl Cs En
BERT-smallアーキテクチャに基づく蒸留モデルで、チェコ語-英語の意味埋め込みに特化
テキスト埋め込み Transformers 複数言語対応
D
Seznam
393
4
LCM Dreamshaper V7
MIT
Stable-Diffusion v1-5のDreamshaper v7ファインチューン版から蒸留され、極めて短い推論時間で高品質な画像を生成可能
画像生成 英語
L
ckpt
190
3
Indictrans2 Indic En Dist 200M
MIT
これは22種類のインド言語と英語の相互翻訳をサポートする機械翻訳モデルで、蒸留技術を用いて最適化され、パラメータ規模は200Mです。
機械翻訳 Transformers 複数言語対応
I
ai4bharat
3,123
5
Indictrans2 En Indic Dist 200M
MIT
IndicTrans2は22のインド言語と英語の相互翻訳をサポートする高品質な機械翻訳モデルで、このバージョンは200Mパラメータの蒸留版です
機械翻訳 Transformers 複数言語対応
I
ai4bharat
4,461
12
Nllb 200 Distilled 600M Dz To En
このモデルはNLLB-200蒸留版をファインチューニングしたアラビア語(Dz)から英語への翻訳モデルです
機械翻訳 Transformers
N
KarmaCST
17
0
MLQ Distilbart Bbc
Apache-2.0
このモデルは、sshleifer/distilbart-cnn-12-6をBBCニュース要約データセットでファインチューニングしたテキスト要約モデルで、トリノ工科大学の深層自然言語処理コースの研究室で開発されました。
テキスト生成 Transformers
M
DeepNLP-22-23
20
0
Tinysapbert From TinyPubMedBERT V1.0
TinySapBERTは、SapBERTフレームワークに基づいて訓練されたマイクロ生物医学エンティティ表現モデルで、生物医学の命名エンティティ認識タスクに特化して設計されています。
大規模言語モデル Transformers
T
dmis-lab
16.93k
0
Small100
MIT
SMaLL-100はコンパクトで高速な大規模多言語機械翻訳モデルで、10,000以上の言語ペアをカバーし、M2M-100と同等の性能を持ちながら、より小型で高速です。
機械翻訳 Transformers 複数言語対応
S
alirezamsh
5,374
81
Moco Sentencedistilbertv2.0
これはsentence-transformersに基づく韓英バイリンガルの文埋め込みモデルで、文を768次元のベクトル空間にマッピングでき、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み Transformers 複数言語対応
M
bongsoo
39
1
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
このモデルは、multi_newsデータセットでdistilbart-cnn-12-6をファインチューニングしたテキスト要約モデルで、マルチドキュメント要約タスク専用です。
テキスト生成 Transformers
D
datien228
22
3
Sbert Chinese Qmc Finance V1 Distill
金融分野の問題マッチングに最適化された軽量化文類似度モデル。蒸留技術により12層BERTを4層に圧縮し、推論効率を大幅に向上
テキスト埋め込み Transformers
S
DMetaSoul
20
3
Distilcamembert Base
MIT
DistilCamemBERTはフランス語CamemBERTモデルの蒸留版で、知識蒸留技術によりモデルの複雑さを大幅に低減しながら性能を維持しています。
大規模言語モデル Transformers フランス語
D
cmarkea
15.79k
31
Distil Wav2vec2 Adult Child Cls 37m
Apache-2.0
wav2vec 2.0アーキテクチャに基づく音声分類モデルで、成人と児童の音声を区別するために使用されます
音声分類 Transformers 英語
D
bookbot
15
2
Distilbert Base Es Multilingual Cased
Apache-2.0
これはdistilbert-base-multilingual-casedから抽出されたスペイン語サブセットモデルで、BERT基礎多言語モデルの蒸留バージョンです。パラメータ規模は小さいですが、主要な機能を保持しています。
大規模言語モデル Transformers スペイン語
D
Recognai
76
3
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Distilbert Base Pl Cased
Apache-2.0
これはdistilbert-base-multilingual-casedのカスタマイズされた軽量化バージョンで、ポーランド語に特化して最適化され、元のモデルの精度を維持しています。
大規模言語モデル Transformers その他
D
Geotrend
92
1
Distilbert Base En Fr Es Pt It Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量版で、英語、フランス語、スペイン語、ポルトガル語、イタリア語の処理をサポートします。
大規模言語モデル Transformers 複数言語対応
D
Geotrend
24
0
Distilbert Base En It Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量版で、英語とイタリア語に特化して最適化され、元のモデルの精度を維持しています。
大規模言語モデル Transformers その他
D
Geotrend
20
0
Distilbert Base En De Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量版で、英語とドイツ語のバイリンガル処理に特化し、元のモデルの表現能力と精度を維持しています。
大規模言語モデル Transformers その他
D
Geotrend
23
0
Distilbert Base En Ar Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの簡素化バージョンで、英語とアラビア語処理に特化しており、元のモデルの精度を維持しています。
大規模言語モデル Transformers その他
D
Geotrend
31
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase