# 低パラメータ数

Lite Whisper Large V3 Turbo Fast
Apache-2.0
Lite-Whisper は OpenAI Whisper の圧縮バージョンで、LiteASR 技術を採用し、比較的高い精度を維持しながらモデルサイズを大幅に削減しています。
音声認識 Transformers
L
efficient-speech
99
2
Lite Whisper Large V3
Apache-2.0
Lite-WhisperはOpenAI Whisperの圧縮バージョンで、LiteASR技術を採用し、高い精度を維持しながらモデルサイズを縮小しています。
音声認識 Transformers
L
efficient-speech
70
2
Meno Tiny 0.1
Apache-2.0
Qwen2.5-1.5B-Instructをファインチューニングしたロシア語コマンド最適化モデル、15億パラメータ、ロシア語と英語をサポート、RAGプロセスにおけるテキストQAに優れる
大規模言語モデル Transformers 複数言語対応
M
bond005
764
10
Ruri Reranker Stage1 Small
Apache-2.0
瑠璃リランカーは日本語汎用リランキングモデルで、日本語テキスト検索結果の関連性順位付けを向上させるために特別に設計されています。小型バージョンは高性能を維持しながら、より少ないパラメータ数を持ちます。
テキスト埋め込み 日本語
R
cl-nagoya
25
0
Lamini Prompt Enchance
このモデルはMBZUAI/LaMini-Flan-T5-248Mをファインチューニングしたプロンプト強化モデルで、主にテキスト記述強化タスクに使用されます。
テキスト生成 Transformers
L
gokaygokay
930
4
Tinystories 656K
Apache-2.0
TinyStories-656Kは、物語生成に特化した軽量級のTransformer言語モデルで、約600kのパラメータのみを使用しています。
テキスト生成 Transformers 英語
T
raincandy-u
119
29
Bk Sdm Small
Openrail
BK-SDMはアーキテクチャ圧縮を施した安定拡散モデルで、効率的な汎用テキスト画像合成を実現。U-Netの残差ブロックとアテンションブロックを除去することで軽量化を達成。
画像生成
B
nota-ai
745
31
Deeplabv3 Mobilevit Xx Small
その他
PASCAL VOCデータセットで事前学習された軽量セマンティックセグメンテーションモデル、MobileViTとDeepLabV3アーキテクチャを組み合わせ
画像セグメンテーション Transformers
D
apple
1,571
10
Deeplabv3 Mobilevit X Small
その他
軽量なビジョントランスフォーマーモデルで、MobileNetV2とトランスフォーマーモジュールを組み合わせ、モバイル向けセマンティックセグメンテーションタスクに適しています。
画像セグメンテーション Transformers
D
apple
268
3
Mobilevit Xx Small
その他
MobileViTは、軽量で低遅延の視覚Transformerモデルで、CNNとTransformerの利点を組み合わせており、モバイルデバイスに適しています。
画像分類 Transformers
M
apple
6,077
16
Mobilevit X Small
その他
MobileViTは、軽量で低遅延の視覚Transformerモデルで、CNNとTransformerの利点を組み合わせ、モバイル端末に適しています。
画像分類 Transformers
M
apple
1,062
6
Bert Base Uncased Squadv1 X1.96 F88.3 D27 Hybrid Filled Opt V1
MIT
BERT-base uncasedモデルをSQuAD v1でファインチューニングし最適化した質問応答モデル。枝刈り技術により元の重みの43%を保持し、推論速度が1.96倍向上
質問応答システム Transformers 英語
B
madlag
20
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase