🚀 Sombrero-Opus-14B-Sm5
Sombrero-Opus-14B-Sm5はQwen 2.5 14Bモダリティアーキテクチャに基づいており、コーディング効率と計算推論を向上させるように設計されています。このモデルは、メモリ使用を最適化し、不要なテキストトークンの生成を回避し、コーディング、説明的推論、数学的問題解決、および技術的タスクで優れた性能を発揮します。専用のデータセットを使用して微調整され、コード生成、構造化プログラミングロジック、および問題解決能力が向上しています。

✨ 主な機能
- コーディングに最適化: このモデルは、高品質で構造化されたコードを生成することに特化しており、冗長なトークンを最小限に抑え、効率的な実行を保証します。
- メモリ利用の向上: メモリの最適化を実装し、計算オーバーヘッドを削減し、パフォーマンスを向上させます。
- 優れた推論能力: 複雑な数学的およびアルゴリズミックな問題を、論理的かつ構造化された説明で解くことに優れています。
- 長文脈のサポート: 入力コンテキストとして最大128Kトークンをサポートし、1回の出力で最大8Kトークンを生成できるため、詳細なコーディング応答に最適です。
- 不要なテキストトークンの削減: 過度のテキスト応答を最小限に抑えることで、コーディングタスクの出力をより集中的にします。
🚀 クイックスタート
apply_chat_template
を使用して、トークナイザーとモデルをロードし、コンテンツを生成する方法を示すコードスニペットを以下に示します。
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Sombrero-Opus-14B-Sm5"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Write a Python function to find the Fibonacci sequence."
messages = [
{"role": "system", "content": "You are an advanced coding assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
📚 ドキュメント
想定される使用方法
- コード生成と最適化: 開発者向けに設計され、複数のプログラミング言語でのコードの作成、リファクタリング、および最適化を支援します。
- アルゴリズムと数学的問題の解決: 計算および数学的問題に対して正確な説明と解決策を提供します。
- 技術的説明とドキュメント作成: コーディング概念、ライブラリ、およびAPIに対して明確で構造化された説明を生成します。
- デバッグ支援: コードスニペットを分析し、エラーを検出し、修正を提案します。
- 教育用途: 複雑なプログラミングトピックを理解しやすいセクションに分解することで、学生や学習者を支援します。
- 構造化データ処理: JSON、XML、およびテーブルなどの構造化出力を分析および生成できるため、データサイエンスアプリケーションに最適です。
制限事項
- ハードウェア要件: 大きなパラメータサイズと長文脈のサポートのため、高メモリのGPUまたはTPUが必要です。
- 応答における潜在的なバイアス: 中立を目指して設計されていますが、出力はトレーニングデータに含まれるバイアスを反映する可能性があります。
- 創造的なタスクにおける出力の不一致: ストーリーテリングや非技術的なトピックでは、結果が変動する可能性があります。
- 現実世界の認識の制限: トレーニングのカットオフ以降のリアルタイムイベントにアクセスすることはできません。
- 長文出力におけるエラー伝播: 初期応答のわずかなエラーが、長文のコード出力の全体的な一貫性に影響を与える可能性があります。
- プロンプトの感受性: 応答の有効性は、入力プロンプトの構造化の良さに依存する可能性があります。
📊 評価結果
Open LLM Leaderboardの評価結果
詳細な結果はこちらで確認できます!
要約された結果はこちらで確認できます!
指標 |
値 (%) |
平均 |
41.12 |
IFEval (0-Shot) |
68.52 |
BBH (3-Shot) |
50.60 |
MATH Lvl 5 (4-Shot) |
40.94 |
GPQA (0-shot) |
18.23 |
MuSR (0-shot) |
19.51 |
MMLU-PRO (5-shot) |
48.89 |
📄 ライセンス
このモデルはApache-2.0ライセンスの下で提供されています。
🔧 技術詳細
属性 |
詳情 |
モデルタイプ |
テキスト生成 |
ベースモデル |
Qwen/Qwen2.5-14B-Instruct |
ライブラリ名 |
transformers |
タグ |
text-generation-inference, StreamlinedMemory, code, Math |
モデルインデックス |
名前: Sombrero-Opus-14B-Sm5 結果: テキスト生成タスクにおける複数のデータセットでの評価結果(詳細は上記の評価結果セクションを参照) |