# 高精度テキスト生成

Arliai QwQ 32B ArliAI RpR V4 GGUF
Apache-2.0
32Bパラメータ規模の量子化大規模言語モデル、ArliAI/QwQ-32B-ArliAI-RpR-v4モデルを基に、llama.cppを使用して多様な精度で量子化され、テキスト生成タスクに適しています。
大規模言語モデル 英語
A
bartowski
1,721
1
Thedrummer Valkyrie 49B V1 GGUF
Valkyrie-49B-v1はllama.cppベースの49Bパラメータ大規模言語モデルで、様々な量子化バージョンを提供し、異なるハードウェア構成に対応します。
大規模言語モデル
T
bartowski
64.03k
9
Thedrummer Rivermind Lux 12B V1 GGUF
これは12Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を経ており、さまざまなハードウェアニーズに対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
1,353
1
INTELLECT 2 GGUF
Apache-2.0
INTELLECT 2はPrimeIntellectが開発した大規模言語モデルで、40960トークンのコンテキスト長をサポートし、QwQアーキテクチャとGRPO強化学習フレームワークでトレーニングされています。
大規模言語モデル
I
lmstudio-community
467
5
Paxinium 12b Model Stock
これはmergekitツールを通じて複数の12Bパラメータ規模の事前学習言語モデルを統合するプロジェクトで、異なるモデルの長所を融合し、言語処理能力を向上させることを目的としています。
大規模言語モデル Transformers
P
DreadPoor
212
3
Wanabi 24b V1 GGUF
Apache-2.0
日本語小説創作支援のために特別に調整された大規模言語モデル
大規模言語モデル 日本語
W
kawaimasa
274
2
Open Thoughts OpenThinker2 32B GGUF
Apache-2.0
OpenThinker2-32Bの量子化バージョンで、llama.cppを使用してimatrix量子化を行い、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
O
bartowski
1,332
10
Loyalmaid 12B
LoyalMaid-12Bは、mergekitツールを使用して複数の事前学習済み言語モデルを融合した12Bパラメータ規模の大規模言語モデルです。
大規模言語モデル Transformers
L
yamatazen
83
5
Gemma 3 12b It Abliterated GGUF
これはmlabonne/gemma-3-12b-it-abliteratedから変換されたGGUF形式のモデルで、ローカルで実行する大規模言語モデルアプリケーションに適しています。
大規模言語モデル Transformers
G
matrixportal
354
0
ABEJA QwQ32b Reasoning Japanese V1.0
Apache-2.0
Qwen2.5-32B-Instructをベースに開発された日本語推論モデルで、QwQ-32BのChatVectorを統合し、日本語推論性能を最適化しました。
大規模言語モデル Transformers 日本語
A
abeja
583
10
Community Request 02 12B
複数の12Bパラメータ規模の大規模言語モデルを融合したもので、テキスト生成と対話能力を備えています
大規模言語モデル Transformers
C
Nitral-AI
53
4
Mistral Small 3.1 24B Instruct 2503 HF Imat GGUF
Apache-2.0
Mistralアーキテクチャに基づく24Bパラメータの命令微調整モデルで、テキスト生成タスクに適しています
大規模言語モデル
M
qwp4w3hyb
2,573
3
Gemma 3 27b It Abliterated Q8 0 GGUF
これはmlabonne/gemma-3-27b-it-abliteratedから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
KnutJaegersberg
196
2
Thedrummer Cydonia 24B V2.1 GGUF
その他
Cydonia-24B-v2.1は24Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を施し、さまざまなハードウェア要件に対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
4,417
7
QWQ Stock
複数のQwenシリーズ32Bパラメータモデルを融合したモデルで、Model Stock手法を用いて多言語処理能力を強化
大規模言語モデル Transformers
Q
wanlige
368
7
Lamarckvergence 14B
Apache-2.0
Lamarckvergence-14B は、mergekit によって統合された事前学習済み言語モデルで、Lamarck-14B-v0.7 と Qwenvergence-14B-v12-Prose-DS を統合したものです。Open LLM リーダーボードでは、15B パラメータ以下のモデルの中で1位を獲得しています。
大規模言語モデル Transformers 英語
L
suayptalha
15.36k
24
Nera Noctis 12B GGUF
その他
Nera_Noctis-12BのLlamacpp imatrix量子化バージョンで、Nitral-AI/Nera_Noctis-12Bモデルをベースにし、英語テキスト生成タスクをサポートします。
大規模言語モデル 英語
N
bartowski
64
6
72B Qwen2.5 Kunou V1 GGUF
その他
Qwen2.5-72B-Instructを基にした量子化バージョン。llama.cppを使用して多様な量子化処理を行い、ローカル推論に適応
大規模言語モデル
7
bartowski
319
4
Calme 3.2 Instruct 78b
その他
calme-3.2-instruct-78bはQwen2.5-72Bを基にした高度な進化版で、自己統合と微調整によって能力を強化した汎用領域の大規模言語モデルです。
大規模言語モデル Transformers 英語
C
MaziyarPanahi
2,212
127
Meta Llama 3.1 70B Instruct FP8
Meta-Llama-3.1-70B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントのようなチャットシナリオに最適です。
大規模言語モデル Transformers 複数言語対応
M
RedHatAI
71.73k
45
Florence 2 SD3 Captioner
Apache-2.0
Florence-2-SD3-Captioner は Florence-2 アーキテクチャに基づく画像キャプション生成モデルで、高品質な画像説明テキストを生成するために特別に設計されています。
画像生成テキスト Transformers 複数言語対応
F
gokaygokay
80.06k
34
L3 SnowStorm V1.15 4x8B B
実験的なロールプレイ指向の混合エキスパートモデルで、ロールプレイ/感情ロールプレイタスクにおいてMixtral 8x7Bおよびそのファインチューニングバージョンに劣らない、あるいは優れたパフォーマンスを発揮することを目標としています。
大規模言語モデル Transformers 英語
L
xxx777xxxASD
26
11
Cosmicbun 8B
MIT
CosmicBun-8BはLlama3-8Bアーキテクチャを基にした統合モデルで、数学、物理、化学、生物などの科学分野のテキスト生成タスクに特化しています。
大規模言語モデル Transformers
C
aloobun
19
4
Meta Llama 3 70B Fp8
その他
Meta Llama 3 70BはMetaが開発した大規模言語モデルで、700億のパラメータを持ち、8kのコンテキスト長をサポートし、英語のビジネスや研究用途に適しています。
大規模言語モデル Transformers 英語
M
FriendliAI
34
5
Bielik 7B Instruct V0.1
Bielik-7B-Instruct-v0.1はBielik-7B-v0.1を基に命令ファインチューニングを行ったポーランド語大規模言語モデルで、SpeakLeashチームとACK Cyfronet AGHの協力により開発され、ポーランド語の理解と処理タスクに特化しています。
大規模言語モデル Transformers その他
B
speakleash
656
57
Excalibur 7b DPO
Apache-2.0
Excalibur-7b-DPOはExcalibur-7bベースモデルを直接選好最適化(DPO)でファインチューニングした大規模言語モデルで、対話品質と視覚アプリケーションシーンのパフォーマンス向上に焦点を当てています。
大規模言語モデル Transformers
E
InferenceIllusionist
22
8
Matter 0.1 7B Boost GGUF
Apache-2.0
Matter 7BはMistral 7Bをファインチューニングしたモデルで、テキスト生成タスク向けに設計されており、対話型インタラクションと関数呼び出しをサポートします。
大規模言語モデル 英語
M
munish0838
170
1
Mistral Evolved 11b V0.1 GGUF
Apache-2.0
Mistral-Evolved-11b-v0.1の量子化バージョンで、llama.cppを使用して量子化されており、さまざまなニーズに対応するための複数の量子化オプションを提供します。
大規模言語モデル
M
bartowski
1,761
7
Kunoichi DPO V2 7B GGUF Imatrix
Mistralアーキテクチャに基づく7Bパラメータの大規模言語モデルで、DPO(直接選好最適化)でトレーニングされ、多くのベンチマークテストで優れたパフォーマンスを発揮
大規模言語モデル
K
Lewdiculous
3,705
39
UNA SimpleSmaug 34b V1beta
Apache-2.0
Smaug-34Bをベースにした教師あり微調整モデルで、数学と推論能力の向上に焦点を当て、34B規模のモデルの中で優れた性能を発揮します。
大規模言語モデル Transformers
U
fblgit
18
21
Quartetanemoi 70B T0.0001
その他
QuartetAnemoi-70B-t0.0001は700億パラメータの大規模言語モデルで、カスタムNearSwapアルゴリズムにより複数の優れたモデルを統合し、ストーリーテリングに優れ、陳腐な表現を避けることができます。
大規模言語モデル Transformers
Q
alchemonaut
16
37
Daringmaid 20B V1.1 GGUF
無畏メイド-20B-V1.1はDaringMaid-20Bのアップグレード版で、主な更新点はNoromaid-13bをv0.1.1からv0.3に置き換え、Noromaidの重みをわずかに上げて互換性を向上させたことです。
大規模言語モデル 英語
D
Kooten
190
5
Daringmaid 20B
勇敢なメイド-20Bは複数の優れたモデルを融合させたテキスト生成モデルで、より賢く、命令に従うのが得意なNoromaidモデルを目指しています。
大規模言語モデル Transformers 英語
D
Kooten
163
14
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase