# マルチターン対話強化

Magnum V4 27b Gguf
Gemma 27bをファインチューニングした対話モデルで、Claude 3のテキスト品質を再現することを目的としており、ChatML形式の対話インタラクションをサポートします。
大規模言語モデル 英語
M
anthracite-org
1,220
31
Llama Xlam 2 8b Fc R
xLAM-2シリーズはAPIGen-MTフレームワークでトレーニングされた大規模アクションモデルで、マルチターン対話と関数呼び出し能力に特化しており、AIエージェント開発に適しています。
大規模言語モデル Transformers 英語
L
Salesforce
778
8
Rei V2 12B
Mistral-Nemo-Instructをファインチューニングした大規模言語モデルで、Claude 3モデルの優れた散文品質を再現することを目的としています
大規模言語モデル Transformers 英語
R
Delta-Vector
209
11
L3.3 Cu Mai R1 70b
Llama3アーキテクチャに基づく70Bパラメータの大規模言語モデル、特別な最適化処理を施した
大規模言語モデル Safetensors
L
Steelskull
164
14
Llama 3 Groq 8B Tool Use GGUF
Llama-3-8Bを基にしたGroq最適化バージョン、ツール使用と関数呼び出し機能をサポート
大規模言語モデル 英語
L
tensorblock
125
1
Sapie Gemma2 9B IT
Google Gemma-2-9b-itモデルを基に韓国語向けに最適化したバージョンで、Saltwareが開発し、韓国語自然言語処理タスクに適しています。
大規模言語モデル Transformers 韓国語
S
hometax
171
4
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル Transformers 複数言語対応
I
Vikhrmodels
74
11
Glm 4 9b
その他
GLM-4-9Bは智譜AIが発表した最新のオープンソース事前学習モデルで、複数のベンチマークテストにおいてLlama-3-8Bを上回り、128Kのコンテキスト長と26言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
G
THUDM
9,944
132
LLAMA 3 Quantized
MIT
Meta Llama 3 - 8B Instruct大規模言語モデルの8ビット量子化バージョン、モデルサイズを縮小し推論速度を向上、リソースが限られたデバイスでの展開に適しています。
大規模言語モデル Transformers
L
Kameshr
18
9
Llama 3 8B Instruct Gradient 1048k
Gradientが開発したLlama-3 8Bの長文コンテキスト拡張版で、100万トークンを超えるコンテキスト長をサポートし、RoPE thetaパラメータの最適化により効率的な長文処理能力を実現。
大規模言語モデル Transformers 英語
L
gradientai
5,272
682
Mistral 7B Instruct V0.2 Fp8
Apache-2.0
FriendliAIによってFP8精度に量子化されたMistral-7B-Instruct-v0.2モデルで、高精度を維持しながら推論効率を大幅に向上させています。
大規模言語モデル Transformers
M
FriendliAI
37
12
Gemma 1.1 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
71.01k
158
Dpopenhermes 7B V2
Apache-2.0
DPOpenHermes 7B v2はOpenHermes-2.5-Mistral-7Bを基にした2回目のRL微調整モデルで、直接選好最適化(DPO)による強化学習を行い、Intel/orca_dpo_pairsとallenai/ultrafeedback_binarized_cleanedの選好データセットを使用しています。
大規模言語モデル Transformers 英語
D
openaccess-ai-collective
30
31
Tulu 2 Dpo 7b
その他
Tulu V2 DPO 7BはLlama 2 7Bを微調整した言語モデルで、直接選好最適化(DPO)手法を用いて訓練され、汎用アシスタントとして設計されています。
大規模言語モデル Transformers 英語
T
allenai
1,702
20
Mythalion 13b
Pygmalion-2 13BとMythoMax 13Bの融合モデル、ロールプレイ/チャットシーンに特化
大規模言語モデル Transformers 英語
M
PygmalionAI
671
158
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase