# 対話生成

ERNIE 4.5 21B A3B PT 8bit
Apache-2.0
ERNIE-4.5-21B-A3B-PT-8bitは、百度のERNIE-4.5-21B-A3B-PTモデルの8ビット量子化バージョンで、MLX形式に変換されており、Appleチップ搭載のデバイスに適しています。
大規模言語モデル 複数言語対応
E
mlx-community
123
1
ERNIE 4.5 0.3B PT Bf16
Apache-2.0
ERNIE-4.5-0.3B-PT-bf16は百度が開発したERNIEシリーズのモデルの一つで、パラメータ規模は0.3Bで、bf16精度で学習されています。
大規模言語モデル 複数言語対応
E
mlx-community
214
1
Llama 3.3 70B Instruct 4bit DWQ
Llama 3.3 70B命令微調整モデルの4ビットDWQ量子化バージョン、MLXフレームワーク向けの効率的な推論に適しています
大規模言語モデル 複数言語対応
L
mlx-community
140
2
Gemma 3 27b It 4bit DWQ
これはGoogle Gemma 3 27B ITモデルを変換した4ビット量子化バージョンで、MLXフレームワーク向けに最適化されています。
大規模言語モデル
G
mlx-community
102
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12Bモデルの4ビット量子化バージョンで、MLXフレームワークに適しており、効率的なテキスト生成タスクをサポートします。
大規模言語モデル
G
mlx-community
554
2
Google Gemma 3 1b It Qat GGUF
Google Gemma 3B QAT重みに基づく多様な量子化バージョン、ローカル推論展開に適応
大規模言語モデル
G
bartowski
1,437
2
Gemma 3 27b It Abliterated Mlx 4Bit
これはmlabonne/gemma-3-27b-it-abliteratedモデルを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
大規模言語モデル Transformers
G
sistabossen
119
0
Gemma 3 27b It Abliterated Mlx 3Bit
これはmlabonne/gemma-3-27b-it-abliteratedモデルを変換した3ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
大規模言語モデル Transformers
G
KYUNGYONG
129
0
Microsoft Phi 4 GPTQ Int4
Phi-4はマイクロソフトが開発した高効率な小型言語モデルで、限られたリソース下での高性能推論を実現
大規模言語モデル Transformers
M
jakiAJK
1,404
2
SAINEMO Remix
複数の12Bパラメータモデルを基にした混合モデルで、ロシア語と英語のロールプレイとテキスト生成に特化
大規模言語モデル Transformers
S
Moraliane
201
36
Mistral Nemo Japanese Instruct 2408
Apache-2.0
これはMistral-Nemo-Instruct-2407をベースにした日本語の継続的事前学習モデルで、日本語テキスト生成タスクに特化しています。
大規模言語モデル Safetensors 複数言語対応
M
cyberagent
1,898
39
Taiwan Tinyllama V1.0 Chat
Apache-2.0
これは繁体字中国語用に最適化されたTinyllamaの持続的事前学習バージョンで、TinyLlama-1.1Bモデルに基づいており、持続的事前学習データセットには約20億個のトークンが含まれています。
大規模言語モデル Transformers 中国語
T
DavidLanz
31
3
Ko Llama3 Luxia 8B
Saltlux AI研究所がMeta Llama-3-8Bを基に最適化した韓国語大規模言語モデル。韓国語トークナイザーを拡張し、100GBの精選された韓国語データで事前学習を実施
大規模言語モデル Transformers 複数言語対応
K
saltlux
2,127
78
Smart Lemon Cookie 7B
Smart-Lemon-Cookie-7B は mergekit を使用して統合された事前学習済み言語モデルで、複数のモデルの長所を組み合わせ、テキスト生成やロールプレイタスクに適しています。
大規模言語モデル Transformers 英語
S
FallenMerick
40
4
Tinymixtral 4x248M MoE
Apache-2.0
TinyMixtral-4x248M-MoEは、混合専門家(MoE)アーキテクチャを採用した小型言語モデルで、複数のTinyMistralバリアントを融合させたもので、テキスト生成タスクに適しています。
大規模言語モデル Transformers
T
Isotonic
1,310
2
Chatharuhi RolePlaying Qwen 7b
Apache-2.0
Qwen-7Bをベースに微調整したロールプレイング対話モデルで、複数のキャラクター設定とシナリオ対話をサポート
大規模言語モデル Transformers
C
silk-road
73
2
Gpt2 Conversational Or Qa
Openrail
GPT-2アーキテクチャを基に最適化された対話生成モデルで、ユーザーとAIアシスタントのインタラクションシーン向けに設計
大規模言語モデル Transformers 英語
G
Locutusque
153
2
Dialog PeterGriffin
DialoGPTはGPTアーキテクチャに基づく対話生成モデルで、自然で流暢な対話コンテンツの生成に特化しています。
大規模言語モデル Transformers
D
TropicalJuice
37
1
Dialogpt Small C3po
DialoGPTはGPTアーキテクチャに基づく対話生成モデルで、自然で流暢な対話応答を生成するために特別に設計されています。
対話システム Transformers
D
limivan
32
1
Dialogpt Small David Mast
DialoGPTは、Microsoftが開発したGPTアーキテクチャに基づく対話生成モデルで、人間に似た対話応答を生成するために特化しています。
大規模言語モデル Transformers
D
Toadally
26
0
Dialogpt Medium Emilybot
DialoGPTは、Microsoftが開発したGPTアーキテクチャに基づく対話生成モデルで、自然で流暢な対話応答の生成に特化しています。
対話システム Transformers
D
abhisht
15
1
Dialogpt Small Jordan
DialoGPTは、Microsoftが公開した対話生成の事前学習モデルで、GPTアーキテクチャに基づいており、多輪対話タスクに特化して設計されています。
大規模言語モデル Transformers
D
Apisate
18
0
Dialogpt Small Ricksanchez
DialoGPTアーキテクチャに基づく対話生成モデルで、「リックとモーティ」のリック・サンチェスをキャラクター設定とし、キャラクターのスタイルに合った対話内容を生成できます。
大規模言語モデル Transformers
D
AnthonyNelson
18
1
Dialogpt Small Aang
DialoGPTは、MicrosoftがリリースしたGPT-2ベースの対話生成モデルで、自然で流暢な対話応答を生成するために特別に設計されています。
大規模言語モデル Transformers
D
EEE
15
0
Dialogpt Medium Morty
DialoGPTは、Microsoftが開発したGPTアーキテクチャに基づく対話生成モデルで、自然で流暢な対話応答を生成するために特別に設計されています。
対話システム Transformers
D
Brykee
15
0
Dialogpt Large Quirk
DialoGPTはマイクロソフトが発表した対話生成モデルで、GPTアーキテクチャを基にマルチターン対話シーン向けに最適化されています。
対話システム Transformers
D
Exilon
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase