V

Vicuna 68m

double7によって開発
これは6800万パラメータのVicuna類似モデルで、LLaMA-68mをShareGPTデータでファインチューニングしたもので、主に推測モデル開発用として使用されます。
ダウンロード数 1,935
リリース時間 : 1/11/2024

モデル概要

このモデルはLLaMA-68mアーキテクチャを基にShareGPTの対話データでファインチューニングした小型言語モデルで、LLaMAとVicunaモデルとのアライメントを維持することを目的としており、特に推測モデルとして使用するのに適しています。

モデル特徴

小型で効率的
わずか6800万パラメータで計算リソース要求が低く、推測モデルとして使用するのに適しています
二重アライメント
LLaMAとVicunaモデルの両方とのアライメントを同時に維持
対話最適化
ShareGPTの対話データでファインチューニングされており、対話生成タスクに適しています

モデル能力

テキスト生成
対話生成
言語理解

使用事例

推測デコード
MCSD論文のベースモデル
小型推測モデルとして大型ターゲットモデルと組み合わせて使用
オリジナルのLLaMA-68mと比較して、Vicunaモデルとのアライメントがより良好
対話システム
軽量対話エージェント
リソースが制限された環境での対話生成に適しています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase