🚀 RefuelLLM-2-small (Llama-3-Refueled)
RefuelLLM-2-smallは、Llama3-8Bをベースに2750以上のデータセットで命令調整されたモデルです。分類、読解、構造化属性抽出、エンティティ解決などのタスクに対応しています。このモデルをオープンソース化し、コミュニティでの利用を促進できることを嬉しく思います。
🚀 クイックスタート
このセクションでは、RefuelLLM-2-smallの基本的な使い方を説明します。
✨ 主な機能
- 分類、読解、構造化属性抽出、エンティティ解決などのタスクに対応。
- HuggingFaceと互換性があり、簡単に利用できる。
📚 ドキュメント
モデルの詳細
RefuelLLM-2-small、別名Llama-3-Refueledは、Llama3-8Bをベースに、2750以上のデータセットで命令調整されたモデルです。分類、読解、構造化属性抽出、エンティティ解決などのタスクに対応しています。このモデルをオープンソース化し、コミュニティでの利用を促進できることを嬉しく思います。
モデル開発者 - Refuel AI
入力 - テキストのみ
出力 - テキストのみ
アーキテクチャ - Llama-3-Refueledは、Llama-3-8B-instructをベースに構築されており、最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。
リリース日 - 2024年5月8日
ライセンス - CC BY-NC 4.0
使い方
このリポジトリには、HuggingFaceで使用可能なLlama-3-Refueledの重みが含まれています。以下のコードスニペットは、Transformersを使用した場合の例です。
💻 使用例
基本的な使用法
>>> import torch
>>> from transformers import AutoModelForCausalLM, AutoTokenizer
>>> model_id = "refuelai/Llama-3-Refueled"
>>> tokenizer = AutoTokenizer.from_pretrained(model_id)
>>> model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.float16, device_map="auto")
>>> messages = [{"role": "user", "content": "Is this comment toxic or non-toxic: RefuelLLM is the new way to label text data!"}]
>>> inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
>>> outputs = model.generate(inputs, max_new_tokens=20)
>>> print(tokenizer.decode(outputs[0]))
訓練データ
このモデルは、40億以上のトークンで訓練され、2750以上のNLPタスクをカバーしています。訓練データセットは主に以下のもので構成されています。
- Flan、Task Source、Ayaコレクションなどの人間によるアノテーション付きデータセット
- OpenOrca、OpenHermes、WizardLMなどの合成データセット
- Refuel AIが開発またはライセンスを取得した独自のデータセット
ベンチマーク
このセクションでは、Refuelモデルのラベリングタスクにおけるベンチマーク結果を報告します。方法論の詳細については、こちらを参照してください。
プロバイダー |
モデル |
全体 |
分類 |
読解 |
構造抽出 |
エンティティマッチング |
Refuel |
RefuelLLM-2 |
83.82% |
84.94% |
76.03% |
88.16% |
92.00% |
OpenAI |
GPT-4-Turbo |
80.88% |
81.77% |
72.08% |
84.79% |
97.20% |
Refuel |
RefuelLLM-2-small (Llama-3-Refueled) |
79.67% |
81.72% |
70.04% |
84.28% |
92.00% |
Anthropic |
Claude-3-Opus |
79.19% |
82.49% |
67.30% |
88.25% |
94.96% |
Meta |
Llama3-70B-Instruct |
78.20% |
79.38% |
66.03% |
85.96% |
94.13% |
Google |
Gemini-1.5-Pro |
74.59% |
73.52% |
60.67% |
84.27% |
98.48% |
Mistral |
Mixtral-8x7B-Instruct |
62.87% |
79.11% |
45.56% |
47.08% |
86.52% |
Anthropic |
Claude-3-Sonnet |
70.99% |
79.91% |
45.44% |
78.10% |
96.34% |
Anthropic |
Claude-3-Haiku |
69.23% |
77.27% |
50.19% |
84.97% |
54.08% |
OpenAI |
GPT-3.5-Turbo |
68.13% |
74.39% |
53.21% |
69.40% |
80.41% |
Meta |
Llama3-8B-Instruct |
62.30% |
68.52% |
49.16% |
65.09% |
63.61% |
制限事項
Llama-3-Refueledには、モデレーション機能がありません。このモデルがガードレールを遵守し、モデレーションされた出力が必要な環境でのデプロイが可能になる方法について、コミュニティと協力して検討していきたいと思っています。
📄 ライセンス
このモデルは、CC BY-NC 4.0ライセンスの下で提供されています。