# テキスト生成の最適化

Latitudegames.muse 12B GGUF
Muse-12Bは12Bパラメータのテキスト生成モデルで、LatitudeGamesによって開発され、高品質のテキスト生成能力を提供することを目的としています。
大規模言語モデル
L
DevQuasar
291
1
Seed Coder 8B Instruct GGUF
MIT
このモデルは独自の量子化処理を施しており、出力と埋め込みテンソルはf16形式で量子化され、その他のテンソルはq5_kまたはq6_k形式で量子化されています。これにより、体積が小さくなりながらも、純粋なf16と同等の性能を維持しています。
大規模言語モデル 英語
S
ZeroWw
434
1
Qwen2.5 7B Olm V1.5
Apache-2.0
Qwen2.5-7Bに基づく最適化層結合(OLM)モデルで、自動化層再構成技術により性能を向上させます。
大規模言語モデル Transformers 英語
Q
jeffmeloy
123
3
Llama 3.2 1B Instruct GGUF
Llama-3.2-1B-InstructのGGUF形式のバージョンで、より広範なサポートとより良いパフォーマンスを提供します。
大規模言語モデル
L
MaziyarPanahi
190.76k
12
L3 8B Lunar Stheno
L3-8B-Lunar-Stheno は L3-8B-Lunaris-v1 と L3-8B-Stheno-v3.2 を統合したモデルで、応答が長すぎる問題と行動力不足を修正し、状況認識とテキスト生成能力を向上させました。
大規模言語モデル Transformers
L
HiroseKoichi
44
35
T5 Small Paraphrase Pubmed
Apache-2.0
このモデルは、t5-smallを未知のデータセットで微調整したバージョンで、主にテキストの書き換えタスクに使用され、特にPubMed関連のテキストに対応しています。
大規模言語モデル Transformers
T
gayanin
20
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
distilroberta-baseモデルをwikitext2データセットで微調整したバージョンで、テキスト関連のタスクに適しています。
大規模言語モデル Transformers
D
Rocketknight1
17
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
このモデルは、distilroberta-baseをwikitext2データセットで微調整したバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル Transformers
D
Roy029
26
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase