# ChatMLフォーマット対応

Archaeo 12B GGUF
Archaeo-12Bはロールプレイとクリエイティブライティング専用に設計された12Bパラメータの大規模言語モデルで、Rei-12BとFrancois-Huali-12Bモデルを統合して作成されました
大規模言語モデル
A
Delta-Vector
125
12
Archaeo 12B
ロールプレイとクリエイティブライティングのために設計された融合モデルで、Rei-12BとFrancois-Huali-12BをSlerpアルゴリズムで融合
大規模言語モデル Transformers
A
Delta-Vector
168
12
EVA Qwen2.5 32B V0.2
Apache-2.0
ロールプレイング/ストーリーライティングに特化した専門モデルで、Qwen2.5-32Bをベースにフルパラメータ微調整を行い、合成データと自然データを融合しています。
大規模言語モデル Transformers
E
EVA-UNIT-01
625
53
Pygmalion 3 12B
Apache-2.0
Pygmalion-3 12BはMistral-Nemo-Base-2407-chatmlをファインチューニングしたオープンソースのロールプレイ大規模言語モデルで、創造的なフィクション対話コンテンツの生成に特化しています。
大規模言語モデル Transformers
P
PygmalionAI
741
43
Whiterabbitneo 2.5 Qwen 2.5 Coder 7B
Apache-2.0
Qwen2.5-Coder-7Bをファインチューニングしたネットワークセキュリティ分野のコード生成モデルで、攻防セキュリティシナリオに特化
大規模言語モデル Transformers 複数言語対応
W
WhiteRabbitNeo
385
54
Orca Mini V6 8b
複数のSFTデータセットでトレーニングされたLlama 3 8Bパラメータ規模の言語モデルで、テキスト生成タスクをサポート
大規模言語モデル Transformers 英語
O
pankajmathur
21
2
Orca Mini V4 8b
OrcaスタイルのミニデータセットでトレーニングされたLlama-3-8bベースモデルで、包括的に微調整された汎用モデルです。
大規模言語モデル Transformers 英語
O
pankajmathur
22
3
Code Llama 3 8B
Llama-3-8Bをベースに訓練されたコード生成と数学問題解答モデルで、複数のプログラミング言語と詳細なコード解説をサポート
大規模言語モデル Transformers 複数言語対応
C
ajibawa-2023
55
30
J.O.S.I.E.3 Beta12 7B Slerp
Apache-2.0
J.O.S.I.E.3-Beta12-7B-slerpは、Weyaxi/Einstein-v6-7Bとargilla/CapybaraHermes-2.5-Mistral-7Bモデルを統合した7Bパラメータの大規模言語モデルで、多言語インタラクションをサポートし、ChatMLプロンプトフォーマットを採用しています。
大規模言語モデル Transformers 複数言語対応
J
Goekdeniz-Guelmez
17
2
Minueza 32M UltraChat
Apache-2.0
Minueza-32M-UltraChatは3200万パラメータの対話モデルで、Minueza-32M-Baseをベースに訓練され、テキスト生成タスクに特化しています。
大規模言語モデル Transformers 英語
M
Felladrin
191
6
Minueza 32M Chat
Apache-2.0
Minueza-32M-Chatは3200万パラメータを持つチャットモデルで、Felladrin/Minueza-32M-Baseを基に教師ありファインチューニング(SFT)と直接選好最適化(DPO)で訓練されています。
大規模言語モデル Transformers 英語
M
Felladrin
77
9
Minueza 32M Base
Apache-2.0
Minueza-32M-Baseは3200万パラメータを持つベースモデルで、大量の英語テキストコーパスに基づいて完全に訓練されており、テキスト生成タスクに適しています。
大規模言語モデル Transformers 英語
M
Felladrin
68
18
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1はMistralアーキテクチャに基づく7Bパラメータのドイツ語言語モデルで、ドイツ語と英語をサポートし、Apache-2.0ライセンスで公開されています。
大規模言語モデル Transformers 複数言語対応
D
TheBloke
81
4
Discolm Mixtral 8x7b V2
Apache-2.0
Mistral AIのMixtral 8x7bをベースに開発された実験的な8x7b混合エキスパートモデルで、Synthia、MetaMathQA、Capybaraデータセットでファインチューニングされています
大規模言語モデル Transformers 英語
D
DiscoResearch
205
124
Mini Synatra SFT
Mini_Synatra_SFT は Mini_synatra_7b_02 モデルを基にした韓国語テキスト生成モデルで、ChatML フォーマットの命令インタラクションをサポートしています。
大規模言語モデル Transformers 韓国語
M
maywell
1,851
3
Tinymistral 248M Chat V4
Apache-2.0
TinyMistral-248M-ChatはTinyMistral-248Mをファインチューニングした対話モデルで、マルチターン対話をサポートし、様々な対話シナリオに適しています。
大規模言語モデル Transformers 英語
T
Felladrin
516
29
Tinymistral 248M Chat V3
Apache-2.0
TinyMistral-248M-ChatはTinyMistral-248Mをベースにしたチャットモデルで、複数のデータセットでトレーニングされ最適化されており、様々な対話タスクに適しています。
大規模言語モデル Transformers 英語
T
Felladrin
456
28
Writing Partner Mistral 7B
Apache-2.0
クリエイティブライティングを支援するMistralのファインチューニングモデルで、創作の壁を突破するパートナーとして機能
大規模言語モデル Transformers 英語
W
FPHam
21
31
Openhermes 2.5 Mistral 7B GPTQ
Apache-2.0
OpenHermes 2.5はMistral-7Bをファインチューニングした高度な言語モデルで、コード生成と汎用タスク処理に特化しており、前世代バージョンよりも優れた性能を発揮します。
大規模言語モデル Transformers 英語
O
TheBloke
695
28
Openhermes 2 Mistral 7B
Apache-2.0
OpenHermes 2 Mistral 7BはMistral-7Bをファインチューニングした先進的な言語モデルで、主にGPT-4で生成された合成データを使用して訓練されており、対話や指示追従タスクに優れています。
大規模言語モデル Transformers 英語
O
teknium
5,740
256
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase