🚀 Tadpole-Opus-14B-Exp
Tadpole-Opus-14B-Expは、Qwen 2.5 14Bモダリティアーキテクチャに基づいており、14Bパラメータモデルの推論能力を強化するように設計されています。このモデルは、汎用的な推論と回答に最適化されており、文脈理解、論理的推論、多段階問題解決に優れています。長い思考連鎖推論モデルと特殊なデータセットを使用して微調整され、理解、構造化された応答、会話インテリジェンスが向上しています。

✨ 主な機能
- 一般知識の強化:様々なドメインにわたる幅広い知識を提供し、質問に正確に答える能力と首尾一貫した応答を生成する能力を向上させます。
- 命令追従の改善:複雑な命令の理解と実行に大きな進歩が見られ、構造化された応答を生成し、長時間の対話でも一貫性を維持します。
- 多様な適応性:多様なプロンプトに対してより強い耐性を持ち、様々なトピックや会話スタイル(自由形式や構造化された問いなど)を扱う能力を強化します。
- 長文脈サポート:入力文脈に最大128Kトークンをサポートし、一度の出力で最大8Kトークンを生成できるため、詳細な応答に最適です。
- 多言語対応:英語、中国語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語をサポートします。
🚀 クイックスタート
以下はapply_chat_template
を使用して、トークナイザーとモデルをロードし、コンテンツを生成するコードスニペットです。
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Tadpole-Opus-14B-Exp"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "What are the key principles of general-purpose AI?"
messages = [
{"role": "system", "content": "You are a helpful assistant capable of answering a wide range of questions."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
📚 ドキュメント
想定される用途
- 汎用的な推論:幅広い適用性を持ち、論理的推論、多様な質問への回答、一般知識問題の解決に役立ちます。
- 教育と情報提供:学生、教育者、一般ユーザーに説明、要約、調査ベースの応答を提供するのに適しています。
- 会話型AIとチャットボット:文脈理解と動的な応答生成を必要とするインテリジェントな会話エージェントの構築に最適です。
- 多言語アプリケーション:グローバルなコミュニケーション、翻訳、多言語コンテンツ生成をサポートします。
- 構造化データ処理:データサイエンスや自動化に役立つ、テーブルやJSONなどの構造化出力の分析と生成が可能です。
- 長文コンテンツ生成:記事、レポート、ガイドなどの長い応答を生成でき、大量のテキスト出力でも一貫性を維持します。
制限事項
- ハードウェア要件:大きなパラメータサイズと長文脈サポートのため、高メモリのGPUまたはTPUが必要です。
- 応答の潜在的なバイアス:中立的に設計されていますが、出力にはトレーニングデータに含まれるバイアスが反映される可能性があります。
- 創造的なタスクでの出力の不一致:ストーリーテリングや非常に主観的なトピックでは、結果がばらつく可能性があります。
- 現実世界の認識の制限:トレーニングのカットオフ以降のリアルタイムイベントにアクセスできません。
- 長文出力でのエラー伝播:初期の応答に小さなエラーがあると、長文出力の全体的な一貫性に影響を与える可能性があります。
- プロンプトの感度:応答の有効性は、入力プロンプトの構造化の良さに依存する可能性があります。
🔧 技術詳細
属性 |
详情 |
モデルタイプ |
text-generation |
ベースモデル |
prithivMLmods/Sombrero-Opus-14B-Elite5 |
パイプラインタグ |
text-generation |
ライブラリ名 |
transformers |
タグ |
text-generation-inference |
モデル評価結果
Open LLM Leaderboardの評価結果
詳細な結果はこちらで確認できます!
要約された結果はこちらで確認できます!
指標 |
値 (%) |
平均 |
36.88 |
IFEval (0-Shot) |
57.50 |
BBH (3-Shot) |
47.78 |
MATH Lvl 5 (4-Shot) |
31.34 |
GPQA (0-shot) |
18.12 |
MuSR (0-shot) |
18.51 |
MMLU-PRO (5-shot) |
48.03 |
📄 ライセンス
このモデルはApache-2.0ライセンスの下で提供されています。