# マルチターン対話最適化

Qwq 32B ArliAI RpR V4 GGUF
Apache-2.0
ArliAIが提供する高性能ロールプレイとクリエイティブライティング推論モデル、320億パラメータのQwQ-32Bベースモデルを微調整し、長い対話の一貫性と創造的な出力に特化
大規模言語モデル Transformers 英語
Q
ArliAI
1,957
5
Gemma 1.1 7b It
GemmaはGoogleが提供する軽量級のオープンモデルシリーズで、Geminiと同じ技術に基づいて構築されており、テキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
17.43k
271
Thedrummer Big Alice 28B V1 GGUF
MIT
Big-Alice-28B-v1は28Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を施し、さまざまなハードウェアニーズに対応する複数量子化バージョンを提供します。
大規模言語モデル
T
bartowski
2,259
4
Ft Ms Marco MiniLM L12 V2 Claims Reranker V2
これはcross-encoder/ms-marco-MiniLM-L12-v2をファインチューニングしたクロスエンコーダモデルで、テキストの再ランキングとセマンティック検索に使用されます。
テキスト埋め込み
F
Davidsamuel101
769
0
Typhoon2.1 Gemma3 12b
Typhoon2.1-Gemma3-12BはGemma3アーキテクチャを基にした120億パラメータのタイ語大規模言語モデルで、128Kのコンテキスト長と関数呼び出し機能をサポートしています。
大規模言語モデル
T
scb10x
159.13k
2
Mlabonne Qwen3 14B Abliterated GGUF
これはQwen3-14B-abliteratedモデルの量子化バージョンで、llama.cppのimatrixオプションを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
18.67k
16
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8BのGGUF形式量子化バージョン、TensorBlock提供、llama.cpp互換
大規模言語モデル
Q
tensorblock
452
1
Deepcogito Cogito V1 Preview Llama 3B GGUF
Llamaアーキテクチャに基づく3Bパラメータの言語モデルで、様々なハードウェア要件に対応する複数量化バージョンを提供
大規模言語モデル
D
tensorblock
162
1
Multi2convai Corona En Bert
MIT
これは新型コロナウイルス感染症分野に最適化された英語Bertモデルで、Multi2ConvAIプロジェクトによって開発されました
テキスト分類 Transformers 英語
M
inovex
117
0
Nousresearch DeepHermes 3 Llama 3 3B Preview GGUF
Llama-3-3Bアーキテクチャをベースにした命令ファインチューニングモデルで、対話、推論、ロールプレイなどのタスクをサポートし、汎用人工知能アシスタントシナリオに適しています。
大規模言語モデル 英語
N
bartowski
1,033
3
Mistral 7B OpenOrca GGUF
Apache-2.0
Mistral 7B OpenOrcaはMistral-7Bアーキテクチャに基づく大規模言語モデルで、OpenOrcaチームによって訓練され、テキスト生成タスクに特化しています。
大規模言語モデル 英語
M
TheBloke
7,792
245
Gemma 2 Llama Swallow 2b It V0.1
Gemma-2-Llama-Swallowシリーズはgemma-2モデルを継続的に事前学習することで構築され、日本語処理能力を大幅に強化しながら、元の英語能力を保持しています。
大規模言語モデル Transformers 複数言語対応
G
tokyotech-llm
61
1
Google Gemma 3 27b It Qat GGUF
Google Gemma 3 270億パラメータ命令調整モデルの量子化バージョンで、量子化対応トレーニング(QAT)重み生成を採用し、さまざまなハードウェア要件に対応する複数の量子化レベルをサポートします。
大規模言語モデル
G
bartowski
14.97k
31
Bielik 1.5B V3.0 Instruct
Apache-2.0
Bielik-1.5B-v3-Instructは16億パラメータを持つポーランド語生成テキストモデルで、Bielik-1.5B-v3を基に命令ファインチューニングされ、SpeakLeashとACK Cyfronet AGHの協力で開発されました。
大規模言語モデル Transformers その他
B
speakleash
780
8
Ultralong Thinking
SLERP法でマージされた8Bパラメータ言語モデル、DeepSeek-R1とNemotron-8Bモデルの利点を統合
大規模言語モデル Transformers
U
mergekit-community
69
2
Gemma3 12b Indic
Apache-2.0
GoogleのGemma-3-12Bモデルをベースに、テルグ語に特化して教師ありファインチューニングされた大規模言語モデルで、高品質なテキスト生成と対話タスクをサポートします。
大規模言語モデル Transformers その他
G
bharathkumar1922001
129
3
Nvidia Llama 3 1 Nemotron Ultra 253B V1 GGUF
その他
これはNVIDIA Llama-3_1-Nemotron-Ultra-253B-v1モデルの量子化バージョンで、llama.cppを使用して量子化されており、複数の量子化タイプをサポートし、さまざまなハードウェア環境に適しています。
大規模言語モデル 英語
N
bartowski
1,607
3
Doge 120M MoE Instruct
Apache-2.0
Dogeモデルは動的マスクアテンション機構を使用してシーケンス変換を行い、多層パーセプトロンまたはクロスドメイン混合エキスパートを使用して状態変換が可能です。
大規模言語モデル Transformers 英語
D
SmallDoge
240
1
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
DPO手法でファインチューニングされた言語モデル、テキスト生成タスクに適応
大規模言語モデル Transformers
A
shisa-ai
38
2
Mistral 7B UA Grammar GRPO
Apache-2.0
Mistral-7Bをベースにしたウクライナ語命令ファインチューニングモデル、UnslothとTRLライブラリを使用した効率的なトレーニング
大規模言語モデル Transformers 英語
M
thedanmaks
76
2
Arrowneo AME 4x3B V0.1 MoE
MIT
AIバーチャルアナウンサーの魂となることを目指した混合専門家モデルで、コード生成、指示追従、マルチターン対話能力を統合
大規模言語モデル 複数言語対応
A
DataPilot
51
3
Gemma 3 4b It GGUF
このモデルはllama.cppを使用してgoogle/gemma-3-4b-itからGGUF形式に変換されたもので、ローカル展開と推論に適しています。
大規模言語モデル
G
ysn-rfd
62
1
Thedrummer Fallen Gemma3 4B V1 GGUF
その他
これはTheDrummer/Fallen-Gemma3-4B-v1モデルを基にした量子化バージョンで、llama.cppを使用して量子化処理されており、テキスト生成タスクに適しています。
大規模言語モデル
T
bartowski
2,106
3
Gemma 3 12b It Mlx 4Bit
Gemma 3 12B IT MLX 4Bitは、unsloth/gemma-3-12b-itから変換されたMLX形式モデルで、Appleシリコンデバイスに適しています。
大規模言語モデル Transformers 英語
G
przemekmroczek
23
1
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
NVIDIAがリリースした8Bパラメータ規模のオープンソース大規模言語モデル、Llama-3アーキテクチャに基づき、複数の量子化バージョンを提供
大規模言語モデル 英語
L
tensorblock
1,048
4
Gemma 3 27b It Abliterated Q8 0 GGUF
これはmlabonne/gemma-3-27b-it-abliteratedから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
KnutJaegersberg
196
2
Olmo 2 0325 32B Pre GGUF
Apache-2.0
OLMo-2-0325-32BはAllenAIによって開発された大規模言語モデルで、320億のパラメータを持ち、様々なテキスト生成タスクに適しています。
大規模言語モデル
O
deltanym
147
2
Beaverai MN 2407 DSK QwQify V0.1 12B GGUF
Apache-2.0
12Bパラメータの大規模言語モデルで、テキスト生成タスクをサポートし、Apache-2.0ライセンスで公開されています。
大規模言語モデル
B
bartowski
1,547
5
Gemma 3 4b It Q4 K M GGUF
Gemma 3.4B IT は Google が開発したオープンソースの大規模言語モデルで、このバージョンは llama.cpp を使用して GGUF 形式に変換された 4-bit 量子化版です。
大規模言語モデル
G
DravenBlack
186
1
T3Q Qwen2.5 14b V1.2 E2
Apache-2.0
T3Q-qwen2.5-14b-v1.2-e2はQwen/Qwen2.5-14B-Instruct-1Mモデルを基にした後訓練バージョンで、LoRA-8-4-0.0001-cosine-32-16設定を使用し、トレーニングデータはtrain_data_v1.2です。
大規模言語モデル Transformers 複数言語対応
T
JungZoona
119
8
Gemma 3 12b It Q8 0 GGUF
このモデルはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
NikolayKozloff
89
1
Google.gemma 3 4b It GGUF
Gemma 3.4B IT は Google が開発した34億パラメータの大規模言語モデルで、命令チューニングバージョンに特化しており、様々な自然言語処理タスクに適しています。
大規模言語モデル
G
DevQuasar
141
1
Qwq 32B GGUF
Apache-2.0
QwQ-32BのGGUFフォーマット量子化バージョン、ローカル展開と推論に適しています
大規模言語モデル 英語
Q
tensorblock
1,312
4
Instella 3B
その他
AMD Instinct MI300X GPUでトレーニングされた30億パラメータの完全オープン言語モデルファミリーで、同規模のオープンモデルを性能で凌駕
大規模言語モデル Transformers
I
amd
3,048
34
Llm Jp 3 8x13b Instruct3
Apache-2.0
国立情報学研究所が開発した大規模日本語-英語混合MoE言語モデルで、8x13Bパラメータ規模をサポートし、命令微調整最適化済み
大規模言語モデル Transformers 複数言語対応
L
llm-jp
162
3
Deephermes 3 Llama 3 3B Preview
DeepHermes 3 プレビュー版はNous ResearchのフラッグシップHermesシリーズ大規模言語モデルの最新バージョンで、推論と通常応答モードを組み合わせ、注釈、判断、関数呼び出し機能を改善しました。
大規模言語モデル Transformers 英語
D
NousResearch
4,285
28
Huihui Ai.qwen2.5 14B Instruct 1M Abliterated GGUF
14Bパラメータ規模の大規模言語モデルで、命令追従タスクに特化し、テキスト生成能力をサポートします。
大規模言語モデル
H
DevQuasar
550
1
Nousresearch DeepHermes 3 Llama 3 8B Preview GGUF
Llama-3-8Bを微調整した対話モデルで、複数の量子化バージョンをサポートし、チャット、推論、ロールプレイなどのタスクに適しています。
大規模言語モデル 英語
N
bartowski
1,038
16
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8BはAllenAIによって開発された大規模言語モデルで、Llamaアーキテクチャを基にしており、80億のパラメータを持ち、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
113
2
Zurich 14B GCv2 50k
Apache-2.0
Qwen 2.5 14B Instructモデルをファインチューニングした大規模言語モデルで、ガンマコーパスv2-50kデータセットで訓練
大規模言語モデル Transformers 英語
Z
rubenroy
39
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase