H

H2o Danube2 1.8b Chat

h2oaiによって開発
H2O.aiによって微調整された18億パラメータのチャットモデル、Llama 2アーキテクチャを基に調整、8192トークンの文脈長をサポート
ダウンロード数 948
リリース時間 : 4/5/2024

モデル概要

これはSFTとDPOで微調整されたチャットモデルで、対話生成タスクに適しており、Mistralトークナイザーを基にしています

モデル特徴

長文脈サポート
8192トークンの文脈長をサポート、長い対話処理に適しています
効率的な推論
18億パラメータ規模で性能を維持しながら効率的な推論を実現
多段階微調整
SFT(教師あり微調整)とDPO(直接選好最適化)の2段階トレーニングを経ています

モデル能力

対話生成
テキスト補完
質問応答システム

使用事例

カスタマーサービスチャットボット
カスタマーサービス対話
顧客の問い合わせやよくある質問への対応に使用
教育支援
学習サポート
学生の学習質問や概念説明を支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase