Amberchat
AmberChatはLLM360/Amberをファインチューニングした命令追従モデルで、LLM360のPebbleモデルシリーズに属します。
ダウンロード数 4,790
リリース時間 : 11/30/2023
モデル概要
AmberChatはLLM360/Amberをファインチューニングした命令追従モデルで、主にテキスト生成タスクに使用されます。
モデル特徴
高性能
MT-Bench評価で5.428125点を獲得し、Falcon-40B-Instructを上回り、MPT-7B-Chatに近い性能です。
命令追従
複雑な命令を理解し実行し、詳細な回答を提供できます。
オープンソース
Apache 2.0ライセンスを採用し、完全にオープンソースです。
モデル能力
テキスト生成
命令追従
質問応答システム
使用事例
家庭生活
テレビ設置ガイド
石膏ボードにテレビを安全に設置する方法の詳細な手順を提供します。
テレビと壁の長期的な使用安全性を確保します。
教育
類推推論
喜びと悲しみの関係は、平穏と不安やストレスの関係に似ていることを説明します。
抽象概念間の関係理解を助けます。
エンターテインメント
誕生日パーティー企画
10歳の子供の誕生日パーティーのためのクリエイティブな提案を提供します。
様々な楽しいパーティーアクティビティ案を提供します。
🚀 AmberChat
AmberChatは、LLM360/Amber からファインチューニングされた命令追従モデルです。AmberChatはLLM360のPebbleモデルシリーズの一部です。
🚀 クイックスタート
モデルの読み込み
import torch
from transformers import LlamaTokenizer, LlamaForCausalLM
tokenizer = LlamaTokenizer.from_pretrained("LLM360/AmberChat")
model = LlamaForCausalLM.from_pretrained("LLM360/AmberChat")
#template adapated from fastchat
template= "A chat between a curious human and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the human's questions.\n### Human: Got any creative ideas for a 10 year old’s birthday?\n### Assistant: Of course! Here are some creative ideas for a 10-year-old's birthday party:\n1. Treasure Hunt: Organize a treasure hunt in your backyard or nearby park. Create clues and riddles for the kids to solve, leading them to hidden treasures and surprises.\n2. Science Party: Plan a science-themed party where kids can engage in fun and interactive experiments. You can set up different stations with activities like making slime, erupting volcanoes, or creating simple chemical reactions.\n3. Outdoor Movie Night: Set up a backyard movie night with a projector and a large screen or white sheet. Create a cozy seating area with blankets and pillows, and serve popcorn and snacks while the kids enjoy a favorite movie under the stars.\n4. DIY Crafts Party: Arrange a craft party where kids can unleash their creativity. Provide a variety of craft supplies like beads, paints, and fabrics, and let them create their own unique masterpieces to take home as party favors.\n5. Sports Olympics: Host a mini Olympics event with various sports and games. Set up different stations for activities like sack races, relay races, basketball shooting, and obstacle courses. Give out medals or certificates to the participants.\n6. Cooking Party: Have a cooking-themed party where the kids can prepare their own mini pizzas, cupcakes, or cookies. Provide toppings, frosting, and decorating supplies, and let them get hands-on in the kitchen.\n7. Superhero Training Camp: Create a superhero-themed party where the kids can engage in fun training activities. Set up an obstacle course, have them design their own superhero capes or masks, and organize superhero-themed games and challenges.\n8. Outdoor Adventure: Plan an outdoor adventure party at a local park or nature reserve. Arrange activities like hiking, nature scavenger hunts, or a picnic with games. Encourage exploration and appreciation for the outdoors.\nRemember to tailor the activities to the birthday child's interests and preferences. Have a great celebration!\n### Human: {prompt}\n### Assistant:"
prompt = "How do I mount a tv to drywall safely?"
input_str = template.format(prompt=prompt)
input_ids = tokenizer(input_str, return_tensors="pt").input_ids
outputs = model.generate(input_ids, max_length=1000)
print(tokenizer.batch_decode(outputs[:, input_ids.shape[1]:-1])[0].strip())
または、FastChat を使用することもできます。
python3 -m fastchat.serve.cli --model-path LLM360/AmberChat
✨ 主な機能
評価
モデル | MT-Bench |
---|---|
LLM360/AmberChat | 5.428125 |
LLM360/Amber | 2.48750 |
Falcon-40B-Instruct | 5.17 |
MPT-7B-Chat | 5.42 |
Nous-Hermes-13B | 5.51 |
モデルの説明
属性 | 詳情 |
---|---|
モデルタイプ | LLaMA-7Bと同じアーキテクチャの言語モデル |
言語 | 英語 |
ライセンス | Apache 2.0 |
詳細情報のリソース | Metrics Fully processed Amber pretraining data Finetuning Code |
使用例
例1
- 入力: "How do I mount a tv to drywall safely?"
- 出力: "Mounting a TV to drywall safely is crucial to ensure the longevity of your TV and the wall. Here's a step-by-step guide on how to do it safely:\n 1. Choose the right mount: Choose a mount that is compatible with your TV and the wall. Make sure the mount is rated for drywall and not just wood or concrete.\n 2. Prepare the wall: Before mounting the TV, make sure the wall is clean and free from any debris or paint. Use a stud finder to locate the studs in the wall.\n 3. Install the mount: Follow the manufacturer's instructions for mounting the TV to the wall. Use appropriate hardware and tools to secure the mount to the wall.\n 4. Level the TV: Level the TV on the mount using a spirit level or a leveling kit provided by the mount manufacturer.\n 5. Attach the TV to the mount: Attach the TV to the mount using the appropriate hardware and tools. Tighten the bolts and screws to ensure the TV is securely attached.\n 6. Connect the cables: Connect the TV cables to the appropriate ports on the back of the TV and the mount.\n 7. Test the mount: Test the mount to ensure it's secure and stable. Adjust the mount as needed to ensure the TV is level and secure.\n Mounting a TV to drywall safely is crucial to avoid damaging the wall or the TV. Follow these steps carefully and use appropriate tools and hardware to ensure a secure and stable installation."
例2
- 入力: "Happy is to sad as calm is to _."
- 出力: "The adjective that can be used to describe the opposite of calm is "anxious" or "stressed." So, from happy to sad, we can say that happy is to sad as calm is to anxious or stressed."
🔧 技術詳細
データミックス
サブセット | 行数 | ライセンス |
---|---|---|
WizardLM/WizardLM_evol_instruct_V2_196k | 143k | |
icybee/share_gpt_90k_v1 | 90k | cc0-1.0 |
合計 | 233k |
ハイパーパラメータ
ハイパーパラメータ | 値 |
---|---|
総パラメータ数 | 6.7B |
隠れ層のサイズ | 4096 |
中間層のサイズ (MLPs) | 11008 |
アテンションヘッドの数 | 32 |
隠れ層の数 | 32 |
RMSNorm ɛ | 1e^-6 |
最大シーケンス長 | 2048 |
語彙サイズ | 32000 |
学習ハイパーパラメータ
学習ハイパーパラメータ | 値 |
---|---|
学習率 | 2e-5 |
エポック数 | 3 |
デバイスごとのバッチサイズ | 2 |
勾配累積ステップ数 | 16 |
ウォームアップ率 | 0.04 |
モデルの最大長 | 2048 |
📦 Ollamaでの量子化モデルの使用
以下の手順に従って、AmberChatの量子化バージョンをパソコンまたはラップトップで使用できます。
- まず、こちら の指示に従ってOllamaをインストールします。次に、TheBloke/AmberChat-GGUF から量子化モデルのチェックポイント(例えば、8ビット版の amberchat.Q8_0.gguf)をダウンロードします。以下のテンプレートを使用して、ローカルにOllamaのModelfileを作成します。
FROM amberchat.Q8_0.gguf
TEMPLATE """{{ .System }}
USER: {{ .Prompt }}
ASSISTANT:
"""
SYSTEM """A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions.
"""
PARAMETER stop "USER:"
PARAMETER stop "ASSISTANT:"
PARAMETER repeat_last_n 0
PARAMETER num_ctx 2048
PARAMETER seed 0
PARAMETER num_predict -1
FROMディレクティブがダウンロードしたチェックポイントファイルを指していることを確認してください。
- 次に、以下のコマンドを実行してモデルをビルドします。
ollama create amberchat -f Modelfile
- コマンドラインからモデルを実行するには、以下のコマンドを実行します。
ollama run amberchat
モデルは一度ビルドすれば、その後は実行するだけです。
📄 ライセンス
このモデルはApache 2.0ライセンスの下で提供されています。
📚 引用
@misc{liu2023llm360,
title={LLM360: Towards Fully Transparent Open-Source LLMs},
author={Zhengzhong Liu and Aurick Qiao and Willie Neiswanger and Hongyi Wang and Bowen Tan and Tianhua Tao and Junbo Li and Yuqi Wang and Suqi Sun and Omkar Pangarkar and Richard Fan and Yi Gu and Victor Miller and Yonghao Zhuang and Guowei He and Haonan Li and Fajri Koto and Liping Tang and Nikhil Ranjan and Zhiqiang Shen and Xuguang Ren and Roberto Iriondo and Cun Mu and Zhiting Hu and Mark Schulze and Preslav Nakov and Tim Baldwin and Eric P. Xing},
year={2023},
eprint={2312.06550},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98