T

Tulu 65b

Developed by allenai
Tulu 650億はマルチインストラクションデータセットでファインチューニングされた650億パラメータのLLaMaモデルで、オープンリソースのインストラクションチューニング研究の成果であり、総合性能が強力です。
Downloads 20
Release Time : 6/7/2023

Model Overview

このモデルはFLAN V2、CoT、Dollyなどのマルチインストラクションデータセットでファインチューニングされており、様々な自然言語処理タスクに適しており、特にインストラクション追従能力を重視しています。

Model Features

マルチインストラクションデータセットファインチューニング
FLAN V2、CoT、Dollyなど7つの高品質インストラクションデータセットを統合してトレーニング
厳格な入力形式要件
特定のダイアログ形式(<|user|>/<|assistant|>タグ)を採用し、最適な生成効果を確保
優れた総合性能
MMLU、GSM、BBHなど複数のベンチマークテストで顕著なパフォーマンス

Model Capabilities

インストラクション理解と実行
マルチターンダイアログ生成
複雑な問題解答
コード生成と説明
知識推論

Use Cases

インテリジェントアシスタント
タスク指向ダイアログシステム
複雑なマルチターンインストラクションダイアログを処理
AlpacaFarm評価でDavinci-003モデルを上回る
教育研究
オープンドメインQA
様々な知識質問に回答
MMLUベンチマークテストで5-shot精度61.1%を達成
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase