T

Tulu 65b

allenaiによって開発
Tulu 650億はマルチインストラクションデータセットでファインチューニングされた650億パラメータのLLaMaモデルで、オープンリソースのインストラクションチューニング研究の成果であり、総合性能が強力です。
ダウンロード数 20
リリース時間 : 6/7/2023

モデル概要

このモデルはFLAN V2、CoT、Dollyなどのマルチインストラクションデータセットでファインチューニングされており、様々な自然言語処理タスクに適しており、特にインストラクション追従能力を重視しています。

モデル特徴

マルチインストラクションデータセットファインチューニング
FLAN V2、CoT、Dollyなど7つの高品質インストラクションデータセットを統合してトレーニング
厳格な入力形式要件
特定のダイアログ形式(<|user|>/<|assistant|>タグ)を採用し、最適な生成効果を確保
優れた総合性能
MMLU、GSM、BBHなど複数のベンチマークテストで顕著なパフォーマンス

モデル能力

インストラクション理解と実行
マルチターンダイアログ生成
複雑な問題解答
コード生成と説明
知識推論

使用事例

インテリジェントアシスタント
タスク指向ダイアログシステム
複雑なマルチターンインストラクションダイアログを処理
AlpacaFarm評価でDavinci-003モデルを上回る
教育研究
オープンドメインQA
様々な知識質問に回答
MMLUベンチマークテストで5-shot精度61.1%を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase