# 低パラメータ高効率

Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6BはQwenシリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、指示追従、多言語能力を備えています。
大規模言語モデル
Q
QuantFactory
317
1
Qwen3 0.6B GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと混合専門家(MoE)アーキテクチャを提供します。膨大なトレーニングを経て、Qwen3は推論、指示遵守、エージェント能力、多言語サポートの面で画期的な進歩を実現しました。
大規模言語モデル
Q
Qwen
2,511
5
Qwen3 1.7B GGUF
Apache-2.0
通義千問シリーズの大規模言語モデルの最新バージョンで、思考モードと非思考モードの切り替えをサポートし、強力な推論、多言語、エージェント能力を備えています。
大規模言語モデル
Q
Qwen
1,180
1
Falcon H1 0.5B Instruct
その他
ファルコン-H1はTIIによって開発されたハイブリッドTransformers+Mambaアーキテクチャの因果デコーダ専用言語モデルで、英語をサポートし、優れた性能を発揮します。
大規模言語モデル Transformers
F
tiiuae
492
10
Qwen3 1.7B Unsloth Bnb 4bit
Apache-2.0
Qwen3-1.7Bは通義千問シリーズ最新世代の大規模言語モデルにおける17億パラメータ版で、思考モード切替、多言語処理、エージェント能力をサポートしています。
大規模言語モデル Transformers 英語
Q
unsloth
40.77k
4
Qwen3 0.6B
Apache-2.0
Qwen3-0.6Bは通義千問シリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、命令追従、インテリジェントエージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
497.09k
264
Openmath Nemotron 1.5B
OpenMath-Nemotron-1.5BはQwen2.5-Math-1.5BをOpenMathReasoningデータセットでファインチューニングした数学推論モデルで、複数の数学ベンチマークで最先端の結果を達成しています。
大規模言語モデル Transformers 英語
O
nvidia
493
14
Granite Speech 3.3 8b
Apache-2.0
自動音声認識(ASR)と自動音声翻訳(AST)向けに設計されたコンパクトで効率的な音声言語モデル。オーディオとテキストを二段階で処理する設計
テキスト生成オーディオ Transformers 英語
G
ibm-granite
5,532
35
Qwen2.5 VL 3B UI R1
MIT
UI-R1は強化学習によって強化されたGUIエージェントの動作予測を行う視覚言語モデルで、Qwen2.5-VL-3B-Instructを基に構築されています。
テキスト生成画像 英語
Q
LZXzju
96
6
Qwen2 VL 2B Instruct
Apache-2.0
Qwen2-VL-2B-Instruct はマルチモーダル視覚言語モデルで、画像テキストからテキストへのタスクをサポートします。
画像生成テキスト Transformers 英語
Q
FriendliAI
24
1
Colqwenstella 2b Multilingual
MIT
Qwen2視覚モデルとstella_en_1.5B_v5を組み合わせた多言語視覚検索器で、Vidoreベンチマークにおいてパラメータ数≤20億のモデルで1位を獲得
テキスト生成画像 複数言語対応
C
Metric-AI
175
7
TIGER DnR
Apache-2.0
TIGERは軽量音声分離モデルで、周波数帯域分割とマルチスケール特徴抽出により効率的な音声処理を実現
音声分離 英語
T
JusperLee
134
4
TIGER Speech
Apache-2.0
TIGERは軽量音声分離モデルで、周波数帯域分割、マルチスケールおよび全周波数フレームモデリングにより重要な音響特徴を効果的に抽出します。
音声分離 Safetensors 英語
T
JusperLee
1,286
8
Conversation Summarizer V2
MIT
微調整された Llama 3.2 (3B) に基づく会話要約モデルで、会話の簡潔な要約を生成するために特別に設計されています。
テキスト生成 英語
C
dkp2701
17
1
Xinyuan VL 2B
Apache-2.0
Xinyuan-VL-2B はサイリンガーグループが提供するエッジサイド向けの高性能マルチモーダル大規模モデルで、Qwen/Qwen2-VL-2B-Instruct をファインチューニングしており、500万件以上のマルチモーダルデータと少量のテキストデータを使用しています。
テキスト生成画像 Transformers 複数言語対応
X
Cylingo
94
7
Whisper Large V3 Distil Fr V0.2
MIT
フランス語音声テキスト変換に最適化されたWhisper蒸留版、デコーダ構造を2層のみ保持し精度を保ちつつ推論効率を向上
音声認識 Transformers フランス語
W
bofenghuang
385
2
Ruri Reranker Small
Apache-2.0
Ruri-Rerankerは日本語テキストに特化して最適化されたリランキングモデルで、sentence-transformersアーキテクチャに基づき、検索結果の関連性ソートを効果的に向上させます。
テキスト埋め込み 日本語
R
cl-nagoya
116
2
Convai 9b
MIT
ConvAI-9bは90億パラメータを持つ対話型AIモデルで、Zephyr-7b-betaとMistral-7B-v0.2を融合して構築されており、チャットボットや仮想アシスタントなどのインタラクティブなシナリオに適しています。
大規模言語モデル Transformers 英語
C
CreitinGameplays
15
1
Towerinstruct Mistral 7B V0.2
Mistralアーキテクチャに基づく70億パラメータの多言語翻訳モデル、10言語の翻訳関連タスクをサポート
大規模言語モデル Transformers 複数言語対応
T
Unbabel
1,498
16
Codegemma 7b
CodeGemmaはGemmaをベースに構築された軽量オープンソースコードモデルシリーズで、コード補完と生成タスクに特化しています。
大規模言語モデル Transformers
C
google
15.29k
186
Codegemma 2b GGUF
CodeGemmaはGemmaをベースに構築された軽量なオープンソースコードモデルシリーズで、テキストからテキスト、テキストからコードへのデコーダモデルを含み、コード補完と生成タスクに特化しています。
大規模言語モデル
C
google
31
25
Minicpm 2B Dpo Bf16
MiniCPMは面壁智能と清華大学自然言語処理研究所が共同でオープンソース化した一連のエッジAI大規模言語モデルで、コア言語モデルMiniCPM-2Bは24億の非単語埋め込みパラメータのみを有しています。
大規模言語モデル Transformers 複数言語対応
M
openbmb
463
48
Proctora
Proctoraはエキスパート混合アーキテクチャ(MoE)に基づくモデルで、ロールプレイングと事実回答のエキスパートモジュールを組み合わせ、32Kのコンテキスト長をサポートし、AI-RPG評価で優れたパフォーマンスを発揮します。
大規模言語モデル Transformers
P
Karko
78
5
Tinyllama 42M Fp32
MIT
これはTinyStoriesデータセットで訓練された42MパラメータのLlama 2アーキテクチャfloat32精度モデルで、シンプルなテキスト生成タスクに適しています。
大規模言語モデル Transformers
T
nickypro
517
3
Tinyllama 15M
MIT
TinyStoriesデータセットでトレーニングされた1500万パラメータのLlama 2アーキテクチャモデル
大規模言語モデル Transformers
T
nickypro
3,217
11
Musicgen Small
MusicGenはテキスト記述またはオーディオプロンプトから高品質な音楽サンプルを生成するテキストtoミュージックモデルです。
音声生成 Transformers
M
facebook
123.91k
429
Santacoder
Openrail
SantaCoderはPython、Java、JavaScriptのコードでトレーニングされた11億パラメータのコード生成モデルで、中間埋め込みタスクをサポートします。
大規模言語モデル Transformers その他
S
bigcode
3,945
331
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase