モデル概要
モデル特徴
モデル能力
使用事例
🚀 モデルIDのモデルカード
BELLEは、Bloomz - 7b1 - mtをベースに、200万件の中国語データとオープンソースのStanford - Alpacaからの5万件の英語データを組み合わせてファインチューニングされた言語モデルです。中国語の命令理解と応答生成能力に優れています。
🚀 クイックスタート
もしこのモデルが役に立ったと感じたら、このモデルを「いいね」して、https://github.com/LianjiaTech/BELLE のGitHubリポジトリをスターしてください!
✨ 主な機能
BELLEは、Bloomz - 7b1 - mtをベースに、200万件の中国語データと5万件の英語データを用いてファインチューニングされ、優れた中国語命令理解と応答生成能力を備えています。
中国語データ生成コードやその他の詳細情報は、GitHubプロジェクトリポジトリ: https://github.com/LianjiaTech/BELLE で確認できます。
異なるサイズ(20万、60万、100万、200万サンプル)のデータセットを用いて命令学習を行い、以下のような異なるモデルバージョンを得ました。
データサイズ | 200,000 | 600,000 | 1,000,000 | 2,000,000 |
---|---|---|---|---|
ファインチューニング済みモデル | [BELLE - 7B - 0.2M](https://huggingface.co/BelleGroup/BELLE - 7B - 0.2M) | [BELLE - 7B - 0.6M](https://huggingface.co/BelleGroup/BELLE - 7B - 0.6M) | [BELLE - 7B - 1M](https://huggingface.co/BelleGroup/BELLE - 7B - 1M) | [BELLE - 7B - 2M](https://huggingface.co/BelleGroup/BELLE - 7B - 2M) |
📦 インストール
特に明示的なインストール手順は記載されていません。モデルを使用するには、以下のコード例を参考にしてください。
💻 使用例
基本的な使用法
# 入力は、「訓練」と「推論」の両方で以下の形式にする必要があります。
Human: {input} \n\nAssistant:
# BELLEはAutoModelForCausalLMで簡単にロードできます。
from transformers import AutoTokenizer, AutoModelForCausalLM
import sys
model_path = "./" # ローカルモデルを保存するパスを変更できます
model = AutoModelForCausalLM.from_pretrained(model_path)
tokenizer = AutoTokenizer.from_pretrained(model_path)
print("Human:")
line = input()
while line:
inputs = 'Human: ' + line.strip() + '\n\nAssistant:'
input_ids = tokenizer(inputs, return_tensors="pt").input_ids
outputs = model.generate(input_ids, max_new_tokens=200, do_sample = True, top_k = 30, top_p = 0.85, temperature = 0.35, repetition_penalty=1.2)
rets = tokenizer.batch_decode(outputs, skip_special_tokens=True)
print("Assistant:\n" + rets[0].strip().replace(inputs, ""))
print("\n------------------------------------------------\nHuman:")
line = input()
高度な使用法
上記の例では、会話の前のターンのコンテキストを利用していません。多ターンの対話理解を行いたい場合は、会話の前のターンを Human:{input}\n\nAssistant:{output}
の形式で結合して、generate
関数に入力することができます。
📚 ドキュメント
学習ハイパーパラメータ
パラメータ | 値 |
---|---|
バッチサイズ | 64 |
学習率 | 3e - 6 |
エポック数 | 3 |
重み減衰 | 0.001 |
ウォームアップ率 | 0.1 |
学習率スケジューラ | 線形 |
制限事項
現在のベースモデルとデータで訓練されたモデルには、いくつかの問題が残っています。
- 事実関連の命令に対して、事実に反する誤った回答を生成することがあります。
- 有害な命令をうまく識別できず、有害な応答を生成することがあります。
- 推論やコーディングのシチュエーションでの能力はまだ向上が必要です。
モデルにはまだ制限があるため、開発者はオープンソースのコード、データ、モデル、およびこのプロジェクトで生成された他のアーティファクトを研究目的のみに使用することを要求します。商業利用やその他の有害な利用は許可されていません。
いくつかの使用例
Human | Assitant |
---|---|
帮忙写一篇散文诗,主题为扎根,终有一天,我们会变成参天大树 | 人生の道のりで、私たちはそれぞれ様々な挑戦や困難に直面します。しかし、これらの困難は私たちを立ち止まらせる理由ではなく、成長し進歩する機会です。絶えず努力して根を下ろすことで、やがて大木になることができます。 まず、根を下ろすには、堅固な信念と目標が必要です。目標や信仰のない人は、前進する原動力が得られにくいです。そのため、自分の理想と追求を明確にし、行動に移す努力をする必要があります。絶えず努力する過程で、徐々に根を張り、強い心の力を形成することができます。 次に、根を下ろすには、勤勉な精神が必要です。成功は才能によるものではなく、勤勉と粘り強さによるものです。絶えず学習し、実践し、経験を積むことで、自分の能力とレベルを徐々に向上させることができます。この精神は、様々な困難に直面したときにも必要です。なぜなら、粘り強く努力することで、すべての困難を克服し、成功の道に進むことができるからです。 最後に、根を下ろすには、失敗を受け入れる勇気が必要です。生活の中で挫折や失敗に遭遇することは避けられませんが、それによって落胆したり、諦めたりしてはいけません。逆に、失敗から教訓を学び、経験をまとめ、自分の方向や方法を不断に調整する必要があります。挑戦し、革新する勇気があれば、本当に深い根を張り、人生の価値を実現することができます。 要するに、根を下ろすことは長くて挑戦的な過程であり、絶えず努力し、探求する必要があります。絶えず根を固めることで、未来の道をますます安定して進み、夢に近づくことができます。 |
请生成一个房产经纪人和客户的对话 | 不動産仲介業者:こんにちは!私はXX不動産仲介会社の仲介業者です。どのような情報をお探しですか? 顧客:快適で安全に住めるアパートを探しています。 不動産仲介業者:当社にはたくさんのそのような物件があります。あなたにぴったりの選択肢をいくつか紹介できます。 顧客:よろしいです。詳細を教えてください。 不動産仲介業者:このアパートは市中心部にあり、徒歩圏内に多くの商店やレストランがあり、交通も非常に便利です。さらに、近代的な設備と安全システムが備えられており、あなたの居住体験をより安全で快適なものにします。 顧客:素敵そうです。写真とビデオを見たいです。 不動産仲介業者:もちろんです。これがその地域のいくつかの物件です。最適なアパートを選ぶことができます。 顧客:よろしいです。検討します。 不動産仲介業者:ご相談いただき、ありがとうございます。他に何か質問や助けが必要な場合は、いつでもお問い合わせください。 |
Classify the sentiment of the following sentence into Positive, Neutral, or Negative: Super excited about teaching Stanford’s first course on Large Language Models! Check the syllabus out here |
Positive |
列出3个不同的机器学习算法,并说明它们的适用范围。 | 1. サポートベクターマシン(SVM) - 分類と回帰問題に適しており、特に非線形データセットの処理に適しています。 2. 決定木(Decision Tree) - 分類、回帰、クラスタリングなどの問題に適用でき、理解と可視化が容易です。 3. ランダムフォレスト(Random Forest) - 分類と回帰問題に適しており、高次元データや特徴選択が困難な問題を効果的に処理できます。 |
周杰伦哪年出生的 | 周杰伦は1979年1月18日に生まれました。 |
女性应该什么时候结婚? | これは個人の意思と状況によります。一部の女性は早く結婚したいと思うかもしれませんが、他の女性は後で結婚することを好むかもしれません。また、女性の教育レベルや職業の進展などの要素も彼女たちの決定に影響を与えます。 |
帮我写一个周报,主题包含:chatgpt,客服 | 尊敬する上司と同僚の皆様: 今週、私たちのチームの主な仕事は、Chatgpt(チャットボットプラットフォーム)を使用して顧客サービスの質を向上させることでした。このテーマに関する簡単なレポートを以下に示します。 1. ChatGPTを使用したオンラインチャット 過去1週間、私たちのチームはChatgptを使用してオンラインチャットを行いました。Chatgptはより高度な回答を提供できるため、顧客は必要な助けをより迅速に得ることができます。さらに、顧客のニーズに応じて関連する製品やサービスを自動的に推薦することもできます。これにより、私たちのサービスの効率と質が大幅に向上しました。 2. 顧客サービスプロセスの最適化 先週、私たちのチームは顧客サービスプロセスをいくつか改善しました。顧客が遭遇する問題が複雑であるか、より多くのサポートが必要な場合、満足度が低下することがわかりました。そのため、顧客サービスプラットフォームに自助質問応答、知識ベースなどの新機能を追加しました。これらの機能により、顧客は問題をよりよく解決し、より多くの情報を取得することができます。 3. トレーニングとサポートの強化 顧客サービスレベルをさらに向上させるため、私たちのチームは社員のトレーニングとサポートを強化しています。定期的に社内トレーニングや外部学習の機会を提供し、社員が技能と知識を常に更新できるようにしています。同時に、顧客とのコミュニケーションも強化し、彼らのニーズとフィードバックを把握し、顧客の要求をよりよく満たすようにしています。 全体的に、今週の重点的な仕事は、Chatgptを使用して顧客サービス体験を改善し、顧客サービスプロセスを最適化することでした。私たちは引き続き社員のトレーニングとサポートを強化し、チーム全体のサービス能力とレベルを向上させます。皆様のご関心とご支援に感謝いたします! |
“下好一盘围棋需要强大的计算能力。”把这句话翻译成英文 | To play well in a game of Go requires strong computing ability. |
🔧 技術詳細
モデルの学習に使用されたハイパーパラメータは以下の通りです。
パラメータ | 詳細 |
---|---|
バッチサイズ | 64 |
学習率 | 3e - 6 |
エポック数 | 3 |
重み減衰 | 0.001 |
ウォームアップ率 | 0.1 |
学習率スケジューラ | 線形 |
📄 ライセンス
このモデルはApache - 2.0ライセンスの下で提供されています。
引用
このプロジェクトのコード、データ、またはモデルを使用する場合は、以下のように引用してください。
@misc{BELLE,
author = {Yunjie Ji, Yong Deng, Yan Gong, Yiping Peng, Qiang Niu, Baochang Ma, Xiangang Li},
title = {BELLE: Bloom-Enhanced Large Language model Engine },
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/LianjiaTech/BELLE}},
}
また、元のBLOOM論文、Stanford Alpaca、Self - Instruct論文も引用してください。



