# 対話システム最適化

Dans PersonalityEngine V1.3.0 12b Imat GGUFs
12Bパラメータに基づくパーソナライズドテキスト生成モデルで、特定の個性を持つテキストコンテンツの生成に特化しています。
大規模言語モデル
D
Casual-Autopsy
235
1
A M Team AM Thinking V1 GGUF
Apache-2.0
a-m-team/AM-Thinking-v1モデルに基づくLlamacpp imatrix量子化バージョンで、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
A
bartowski
671
1
Smoothie Qwen3 8B
Apache-2.0
スムージー千問は軽量チューニングツールで、Qwenおよび類似モデルのトークン確率分布を平滑化し、多言語生成のバランスを大幅に向上させます。
大規模言語モデル Transformers 英語
S
dnotitia
267
8
Qwen Qwen3 0.6B GGUF
Apache-2.0
このリポジトリにはQwen/Qwen3-0.6BのGGUFフォーマットモデルファイルが含まれており、TensorBlock提供のマシンで量子化処理され、llama.cppと互換性があります。
大規模言語モデル
Q
tensorblock
905
3
Open Thoughts OpenThinker2 32B GGUF
Apache-2.0
OpenThinker2-32Bの量子化バージョンで、llama.cppを使用してimatrix量子化を行い、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
O
bartowski
1,332
10
Minimax Text 01
このモデルはテキスト生成モデルで、入力されたプロンプトに基づいて一貫性のあるテキスト内容を生成できます。
テキスト生成
M
MiniMaxAI
8,231
580
Llama 3 8B Instruct
Llama-3-8Bを基に北欧言語向けに最適化された命令微調整モデルで、スウェーデン語、デンマーク語、ノルウェー語をサポート
大規模言語モデル Transformers その他
L
AI-Sweden-Models
570
12
Mistral Evolved 11b V0.1 GGUF
Apache-2.0
Mistral-Evolved-11b-v0.1の量子化バージョンで、llama.cppを使用して量子化されており、さまざまなニーズに対応するための複数の量子化オプションを提供します。
大規模言語モデル
M
bartowski
1,761
7
Mistral 7B Instruct V0.2 Turkish GGUF
Apache-2.0
これはMistral-7B-Instruct-v0.2をファインチューニングしたトルコ語テキスト生成モデルで、トルコ語と英語をサポートしています。
大規模言語モデル 複数言語対応
M
sayhan
336
9
Chatgpt Prompt Generator V12
Apache-2.0
BART-largeをベースに微調整されたChatGPTプロンプト生成モデルで、キャラクターの説明に基づいて対応するChatGPTキャラクター設定を生成するために使用されます。
大規模言語モデル Transformers
C
merve
80
72
Multilingual Minilm Amazon Massive Intent
MIT
Microsoft Multilingual-MiniLMモデルをMASSIVEデータセットでファインチューニングした意図分類モデルで、多言語理解をサポート
テキスト分類 Transformers 複数言語対応
M
cartesinus
32
5
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase