Gemma 2 2b Crosscoder L13 Mu4.1e 02 Lr1e 04
G
Gemma 2 2b Crosscoder L13 Mu4.1e 02 Lr1e 04
science-of-finetuningによって開発
Gemma 2 2BとGemma 2 2B ITモデルの第13層並列活性化で訓練されたクロスエンコーダー
ダウンロード数 51
リリース時間 : 11/22/2024
モデル概要
このクロスエンコーダーはfinewebとlsmsy-chat-1mデータセットのサブセットで訓練され、主に特徴抽出タスクに使用されます。
モデル特徴
並列活性化訓練
Gemma 2 2BとGemma 2 2B ITモデルの第13層並列活性化で訓練
効率的な特徴抽出
モデル中間層から意味のある特徴表現を抽出することに特化
スパース特徴学習
L1とL0スパース性指標をサポートし、スパース特徴表現を生成可能
モデル能力
モデル中間層特徴抽出
クロスモデル特徴融合
スパース特徴生成
使用事例
モデル分析
モデル内部表現研究
同じ入力に対する異なるモデルの内部表現の差異を分析
異なるモデルの特徴表現の類似度を定量比較可能
特徴エンジニアリング
下流タスク特徴抽出
下流タスク向けに事前訓練モデルの中間層特徴を抽出
より豊富な特徴表現を提供
おすすめAIモデル
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-itの量子化バージョンで、多言語画像記述タスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
その他
Colossus Project FluxのNunchaku量子化バージョンで、テキストプロンプトに基づいて高品質な画像を生成することを目的としています。このモデルは、推論効率を最適化しながら、性能損失を最小限に抑えます。
画像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
これはQwen2.5-VL-7Bモデルに基づく静的量子化バージョンで、画像記述生成タスクに特化し、複数の言語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8は、Qwen2.5-VL-7B-Instructモデルをベースに、olmOCR-mix-0225データセットで微調整した後、FP8バージョンに量子化した文書OCRモデルです。
画像生成テキスト
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128kはQwen3 - 1.7Bをベースに開発された、プロキシ型ネットワーク検索と軽量ブラウジングに特化したモデルで、モバイルデバイスでも効率的に動作します。
大規模言語モデル
Transformers 英語

L
Mungert
263
2