# マルチターン対話生成

INTELLECT 2 GGUF
Apache-2.0
INTELLECT 2はPrimeIntellectが開発した大規模言語モデルで、40960トークンのコンテキスト長をサポートし、QwQアーキテクチャとGRPO強化学習フレームワークでトレーニングされています。
大規模言語モデル
I
lmstudio-community
467
5
Apriel 5B Instruct Llamafied
MIT
これはServiceNow-AIのApriel-5B-InstructモデルをLlama形式に変換した近似実装バージョンで、主流のファインチューニングフレームワークと互換性があり、より簡単に実行できます。
大規模言語モデル Transformers
A
mrfakename
63
3
Pygmalion 3 12B
Apache-2.0
Pygmalion-3 12BはMistral-Nemo-Base-2407-chatmlをファインチューニングしたオープンソースのロールプレイ大規模言語モデルで、創造的なフィクション対話コンテンツの生成に特化しています。
大規模言語モデル Transformers
P
PygmalionAI
741
43
Sarashina2 7b
MIT
SB Intuitionsによってトレーニングされた日本語/英語バイリンガル大規模言語モデル、Llama2アーキテクチャベース
大規模言語モデル Transformers 複数言語対応
S
sbintuitions
1,561
27
EEVE Korean Instruct 10.8B V1.0 Gguf
Apache-2.0
EEVE-Korean-Instruct-10.8B-v1.0は、韓国語コマンドファインチューニングされた大規模言語モデルで、yanolja/EEVE-Korean-10.8B-v1.0ベースモデルを基に開発され、韓国語の理解と生成タスクに特化しています。
大規模言語モデル
E
teddylee777
626
21
Taiwan LLM 7B V2.0.1 Chat GGUF
Apache-2.0
繁体中国語に最適化された先進的な言語モデルで、台湾地域の言語文化コンテクストに深く焦点を当て、言語理解と生成タスクで卓越したパフォーマンスを発揮
大規模言語モデル 中国語
T
ZoneTwelve
590
2
Mistral 7B Customer Support
Apache-2.0
Mistral-7B-Instructをファインチューニングしたカスタマーサポート分野専用モデルで、様々なカスタマーサービス対話シナリオの処理に最適化されています
大規模言語モデル Transformers
M
bitext
487
12
Turkish Gpt2 Medium 350m Instruct V0.1
MIT
ytu-ce-cosmos/turkish-gpt2-mediumをベースに開発されたトルコ語モデルで、3.5万件の命令データセットでファインチューニングされており、様々なテキスト生成タスクに適しています
大規模言語モデル Transformers その他
T
ytu-ce-cosmos
899
12
JARVIS
Apache-2.0
因果言語モデリング(CLM)アーキテクチャに基づく対話AIで、自然言語インタラクション向けに設計されており、一貫性があり文脈に合った応答を生成できます。
大規模言語モデル Transformers 複数言語対応
J
VAIBHAV22334455
38
12
Turkish Gpt2 Large 750m Instruct V0.1
MIT
ytu-ce-cosmos/turkish-gpt2-largeをベースに開発されたトルコ語命令ファインチューニング言語モデル、3.5万件の命令データセットでファインチューニング
大規模言語モデル Transformers その他
T
ytu-ce-cosmos
2,980
40
EEVE Korean Instruct 10.8B V1.0
Apache-2.0
SOLAR-10.7B-v1.0を基にした韓国語語彙拡張版、DPOファインチューニング済み大規模言語モデル
大規模言語モデル Transformers
E
yanolja
19.39k
154
Lzlv Limarpv3 L2 70b
Llama 2ベースの70Bパラメータモデルで、LimaRP v3データセットでトレーニングされたPEFTアダプターを統合し、ロールプレイング対話生成に特化しています。
大規模言語モデル Transformers 英語
L
Doctor-Shotgun
73
11
Synthia 70B V1.5
Synthia-70B-v1.5は700億パラメータの大規模言語モデルで、Llama2アーキテクチャを基盤としており、思考木手法による複雑な推論と一貫性のある回答に特化しています。
大規模言語モデル Transformers
S
migtissera
99
42
Japanese Stablelm Instruct Alpha 7b
その他
70億パラメータデコーダーを基にした日本語指示ファインチューニング言語モデル、生成タスクに適しています
大規模言語モデル Transformers 日本語
J
stabilityai
578
96
Fastchat T5 3b V1.0
Apache-2.0
FastChat-T5はFlan-t5-xlをファインチューニングしたオープンソースのチャットボットで、エンコーダー-デコーダーアーキテクチャを採用し、自己回帰的な対話応答生成をサポートします。
大規模言語モデル Transformers
F
lmsys
1,177
365
Oasst Sft 4 Pythia 12b Epoch 3.5
Apache-2.0
Pythia 12Bアーキテクチャに基づく英語の教師ありファインチューニングモデルで、Open-Assistantプロジェクトの人間フィードバックデータで訓練され、対話生成タスクに特化しています。
大規模言語モデル Transformers 英語
O
OpenAssistant
24.47k
367
Blenderbot 1B Distill
Apache-2.0
このモデルは高性能なオープンドメインチャットボットで、質問、回答、知識提示、共感など複数の対話スキルを統合できます。
対話システム Transformers 英語
B
facebook
2,413
37
Blenderbot Small 90M
Apache-2.0
これは大規模ニューラルネットワークに基づくオープンドメイン対話システムで、マルチターンの自然な対話が可能で、さまざまな対話スキルを統合できます。
対話システム 英語
B
facebook
2,407
49
Dialogpt For French Language
これはDialoGPTを基にフランス語用に微調整した対話エージェントモデルで、フランス語対話タスクをサポートします。
大規模言語モデル Transformers フランス語
D
emil2000
42
1
Dialogpt Small
MIT
DialoGPTは最先端の大規模事前学習マルチターン対話応答生成モデルで、単一ターン対話のチューリングテストにおいて、生成される応答の品質が人間の応答品質に匹敵します。
対話システム
D
microsoft
218.89k
123
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase