🚀 Llama-3-70B-Tool-Use
このモデルは、Llama 3 Groq Tool Useモデルの700億パラメータ版で、高度なツール使用と関数呼び出しタスクに特化して設計されています。
✨ 主な機能
- モデルタイプ:ツール使用のためにファインチューニングされた因果言語モデル
- 言語:英語
- ライセンス:Meta Llama 3 Community License
- モデルアーキテクチャ:最適化されたトランスフォーマー
- 学習アプローチ:Llama 3 70Bベースモデルに対する完全なファインチューニングと直接嗜好最適化(DPO)
- 入力:テキスト
- 出力:テキスト。ツール使用と関数呼び出しの機能が強化されています。
📊 性能
- Berkeley Function Calling Leaderboard (BFCL) スコア:全体的な精度が90.76%
- このスコアは、BFCLにおけるすべてのオープンソース70B LLMの中で最高の性能を表しています。
📦 インストール
このセクションではインストールに関する具体的な手順が提供されていません。
💻 使用例
基本的な使用法
<|start_header_id|>system<|end_header_id|>
You are a function calling AI model. You are provided with function signatures within <tools></tools> XML tags. You may call one or more functions to assist with the user query. Don't make assumptions about what values to plug into functions. For each function call return a json object with function name and arguments within <tool_call></tool_call> XML tags as follows:
<tool_call>
{"name": <function-name>,"arguments": <args-dict>}
</tool_call>
Here are the available tools:
<tools> {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"properties": {
"location": {
"description": "The city and state, e.g. San Francisco, CA",
"type": "string"
},
"unit": {
"enum": [
"celsius",
"fahrenheit"
],
"type": "string"
}
},
"required": [
"location"
],
"type": "object"
}
} </tools><|eot_id|><|start_header_id|>user<|end_header_id|>
What is the weather like in San Francisco?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
<tool_call>
{"id":"call_deok","name":"get_current_weather","arguments":{"location":"San Francisco","unit":"celsius"}}
</tool_call><|eot_id|><|start_header_id|>tool<|end_header_id|>
<tool_response>
{"id":"call_deok","result":{"temperature":"72","unit":"celsius"}}
</tool_response><|eot_id|><|start_header_id|>assistant<|end_header_id|>
高度な使用法
📚 ドキュメント
このモデルは、ツール使用と関数呼び出しのシナリオにおける研究と開発を目的としています。APIの相互作用、構造化データの操作、複雑なツールの使用などのタスクで優れた性能を発揮します。ただし、ユーザーは以下の点に注意する必要があります。
- 一般的な知識やオープンエンドのタスクには、汎用的な言語モデルの方が適している場合があります。
- モデルは、場合によっては不正確または偏った内容を生成する可能性があります。
- ユーザーは、特定の使用ケースに適切な安全対策を実装する責任があります。
🔧 技術詳細
このセクションでは技術的な詳細が十分に提供されていません。
📄 ライセンス
Meta Llama 3 Community License
⚠️ 重要提示
このモデルは、temperature
と top_p
のサンプリング設定に非常に敏感です。temperature=0.5, top_p=0.65
から始め、必要に応じて調整してください。
💡 使用建议
一般的な知識やオープンエンドのタスクには、汎用的な言語モデルの方が適している場合があります。また、モデルは場合によっては不正確または偏った内容を生成する可能性があるため、ユーザーは特定の使用ケースに適切な安全対策を実装する必要があります。
このモデルは以下の場所から利用できます。
責任ある使用、倫理的な考慮事項、最新のベンチマークに関する詳細については、公式Llama 3ドキュメントとGroqモデルカードを参照してください。