# 知識集約型タスク

Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 は Kakao Corp によって開発された 8B パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
K
DevQuasar
483
1
Mlabonne.qwen3 30B A3B Abliterated GGUF
Qwen3-30B-A3B-abliterated は Qwen アーキテクチャに基づく300億パラメータの大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
M
DevQuasar
327
1
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-InstructはAllenAIが開発した10億パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
220
1
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RLは、未知のデータセットからスクラッチでトレーニングされた7Bパラメータ規模の大規模言語モデルで、検索拡張生成(RAG)と強化学習(RL)技術を組み合わせています。
大規模言語モデル Transformers
Q
XXsongLALA
859
7
Gemma 3 1B It Qat GGUF
Googleが提供する軽量オープンソース大規模言語モデル、様々なテキスト生成タスクに適応
大規模言語モデル
G
lmstudio-community
5,014
3
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414はTHUDMによって開発された大規模言語モデルで、320億のパラメータを持ち、さまざまなテキスト生成タスクに適しています。
大規模言語モデル
T
DevQuasar
13.15k
5
Salesforce.llama Xlam 2 70b Fc R GGUF
Llama-xLAM-2-70b-fc-r は Salesforce が公開した大規模言語モデルで、Llama 2 アーキテクチャを基に、700億のパラメータを持っています。
大規模言語モデル
S
DevQuasar
238
1
YM 12B Model Stock
これはmergekitツールでマージされた12Bパラメータ規模の言語モデルで、EtherealAurora-12B-v2をベースに複数の優れたモデルの特徴を融合
大規模言語モデル Transformers
Y
DreadPoor
125
2
Reasonir 8B
ReasonIR-8Bは汎用推論タスク向けに特別に訓練された最初の検索モデルで、BRIGHTベンチマークで最先端の検索性能を達成し、RAGアプリケーションにおいてMMLUおよびGPQAベンチマークのパフォーマンスを大幅に向上させました。
テキスト埋め込み Transformers 英語
R
reasonir
13.43k
39
Fanformer 1B
MIT
FANformer-1Bは革新的な周期的メカニズムにより言語モデリング能力を強化した自己回帰型モデルで、11億の非埋め込みパラメータを持ち、1兆トークンのトレーニングデータ量を達成しました。
大規模言語モデル Transformers 英語
F
dongyh
114
2
Gemma 3 27b It Abliterated Q4 K M GGUF
このモデルはmlabonne/gemma-3-27b-it-abliteratedを変換したGGUF形式バージョンで、llama.cppフレームワークの推論タスクに適しています。
大規模言語モデル
G
NovNovikov
341
3
Trillion 7B Preview
Apache-2.0
Trillion-7Bプレビュー版は多言語対応の大規模言語モデルで、英語、韓国語、日本語、中国語をサポートし、低い計算量を維持しながら、より高い計算量を必要とするモデルと競合する性能を実現しています。
大規模言語モデル Transformers 複数言語対応
T
trillionlabs
6,864
82
Gemma 3 12b It Q5 K S GGUF
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカル推論に適しており、テキスト生成タスクをサポートします。
大規模言語モデル
G
NikolayKozloff
16
1
Gemma 3 12b It Q5 K M GGUF
これはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
NikolayKozloff
46
1
Gemma 3 27b It Q4 K M GGUF
このモデルはGoogleのGemma 3 27B ITモデルを変換したGGUF形式バージョンで、ローカル推論に適しています。
大規模言語モデル
G
paultimothymooney
299
2
Google.gemma 3 4b It GGUF
Gemma 3.4B IT は Google が開発した34億パラメータの大規模言語モデルで、命令チューニングバージョンに特化しており、様々な自然言語処理タスクに適しています。
大規模言語モデル
G
DevQuasar
141
1
Llama 3.1 8b DodoWild V2.01
Llama 3.1アーキテクチャに基づく8Bパラメータ言語モデルで、mergekitを使用して複数のモデルを統合し、テキスト生成能力を備えています
大規模言語モデル Transformers
L
Nexesenex
58
2
Huihui Ai.qwen2.5 14B Instruct 1M Abliterated GGUF
14Bパラメータ規模の大規模言語モデルで、命令追従タスクに特化し、テキスト生成能力をサポートします。
大規模言語モデル
H
DevQuasar
550
1
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8BはAllenAIによって開発された大規模言語モデルで、Llamaアーキテクチャを基にしており、80億のパラメータを持ち、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
113
2
Wiroai Turkish Llm 9b
WiroAIが開発したGemma-2-9bベースのトルコ語大規模言語モデル、会話生成タスクに特化
大規模言語モデル Transformers その他
W
WiroAI
3,062
28
Sapie Gemma2 9B IT
Google Gemma-2-9b-itモデルを基に韓国語向けに最適化したバージョンで、Saltwareが開発し、韓国語自然言語処理タスクに適しています。
大規模言語モデル Transformers 韓国語
S
hometax
171
4
Nanolm 1B Instruct V1.1
Gpl-3.0
NanoLM-1B-Instruct-v1.1は10億パラメータ規模の小型インストラクションチューニング言語モデルで、多分野の英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
N
Mxode
24
1
Jais Family 30b 16k Chat
Apache-2.0
Jaisシリーズはアラビア語に最適化されたバイリンガル大規模言語モデルで、強力な英語能力も備えています。30B-16Kバージョンは300億のパラメータを持ち、16,384トークンのコンテキスト長をサポートします。
大規模言語モデル 複数言語対応
J
inceptionai
59
12
Llama 3 Stinky V2 8B
その他
これはLlama-3アーキテクチャに基づく8Bパラメータモデルで、mergekitツールを使用して複数の事前学習モデルを統合し、優れたテキスト生成能力を備えています。
大規模言語モデル Transformers
L
nbeerbower
39
5
360zhinao 7B Base
Apache-2.0
360智脳は奇虎360によって開発されたオープンソースの大規模言語モデルシリーズで、基本モデルと複数のコンテキスト長の対話モデルを含み、中国語と英語をサポートしています。
大規模言語モデル Transformers 複数言語対応
3
qihoo360
90
5
Strangemerges 53 7B Model Stock
Apache-2.0
StrangeMerges_53-7B-model_stock は LazyMergekit を使用して複数の7Bパラメータ規模モデルを統合した結果であり、強力なテキスト生成能力を備えています。
大規模言語モデル Transformers
S
Gille
18
1
Jambatypus V0.1
Apache-2.0
Jamba-v0.1をOpen-Platypus-ChatデータセットでQLoRAファインチューニングした大規模言語モデル、対話タスクに対応
大規模言語モデル Transformers 英語
J
mlabonne
21
39
Nano Mistral
Apache-2.0
Mistralアーキテクチャに基づく大規模言語モデルで、Pileデータセットで訓練され、英語テキスト処理をサポート
大規模言語モデル Transformers 英語
N
crumb
1,855
6
Openhercules 2.5 Mistral 7B AWQ
Apache-2.0
OpenHercules-2.5-Mistral-7BはMistral-7Bアーキテクチャを基にした融合モデルで、Hercules-2.5-Mistral-7BとOpenHermes-2.5-Mistral-7Bの利点を組み合わせ、テキスト生成と対話タスクに適しています。
大規模言語モデル Transformers 英語
O
solidrust
30
1
Swallow MX 8x7b NVE V0.1
Apache-2.0
Swallow-MX-8x7b-NVE-v0.1はMixtral-8x7B-Instruct-v0.1を基に継続事前学習を行った混合専門家モデルで、主に日本語能力を強化しています。
大規模言語モデル Transformers 複数言語対応
S
tokyotech-llm
1,293
29
Pasta Lake 7b
その他
Pasta-Lake-7bは、Test157t/Pasta-PrimaMaid-7bとmacadeliccc/WestLake-7B-v2-laser-truthy-dpoの2つのモデルを統合して作成された7Bパラメータ規模の言語モデルです。
大規模言語モデル Transformers
P
Nitral-Archive
93
6
Tinymistral 6x248M
Apache-2.0
TinyMistral-6x248MはLazyMergekitツールで6つのTinyMistralバリアントを融合した混合専門家システムで、nampdn-ai/mini-peS2oデータセットで事前学習済み
大規模言語モデル Transformers
T
M4-ai
51
14
Darebeagle 7B
Apache-2.0
DareBeagle-7BはLazyMergekitを使用してmlabonne/NeuralBeagle14-7Bとmlabonne/NeuralDaredevil-7Bを統合した7Bパラメータの大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮しています。
大規模言語モデル Transformers
D
shadowml
77
1
Velara 11B V2 GGUF
Velara 11B v2はMistralアーキテクチャに基づく大規模言語モデルで、テキスト生成タスクに特化しており、Alpaca-InstructOnly2プロンプトテンプレートを採用しています。
大規模言語モデル 英語
V
TheBloke
1,047
9
Norocetacean 20B 10k GGUF
その他
Norocetacean 20B 10KはLlama 2アーキテクチャに基づく大規模言語モデルで、中国語タスクをサポートするように微調整されています。
大規模言語モデル
N
TheBloke
3,364
6
Openhermes 2 Mistral 7B
Apache-2.0
OpenHermes 2 Mistral 7BはMistral-7Bをファインチューニングした先進的な言語モデルで、主にGPT-4で生成された合成データを使用して訓練されており、対話や指示追従タスクに優れています。
大規模言語モデル Transformers 英語
O
teknium
5,740
256
Sheared LLaMA 1.3B
Apache-2.0
Sheared-LLaMA-1.3BはLLaMA-2-7Bを基に構造化プルーニングと継続事前学習を行った効率的な言語モデルです
大規模言語モデル Transformers
S
princeton-nlp
11.09k
94
Bert Finetuned On Nq Short
完全なNatural Questions(NQ)データセットで訓練されたオープンドメイン質問応答モデルで、様々な事実質問に回答可能
大規模言語モデル Transformers
B
eibakke
13
1
Distilbert Mlm Best
DistilBERTはBERTの軽量蒸留バージョンで、BERTの97%の性能を維持しながら、サイズを40%削減し、速度を60%向上させています。
大規模言語モデル Transformers
D
vocab-transformers
26
0
Linkbert Base
Apache-2.0
LinkBERTは英語版Wikipediaとハイパーリンク情報を用いて事前学習されたBERT改良モデルで、ドキュメント間の関連性を捉えることで知識集約型タスクの性能を向上させます。
大規模言語モデル Transformers 英語
L
michiyasunaga
195
7
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase