モデル概要
モデル特徴
モデル能力
使用事例
inference: false library_name: transformers language:
- en
- fr
- de
- es
- it
- pt
- ja
- ko
- zh
- ar
- el
- fa
- pl
- id
- cs
- he
- hi
- nl
- ro
- ru
- tr
- uk
- vi license: cc-by-nc-4.0 extra_gated_prompt: "このフォームを送信することで、ライセンス契約に同意し、提供する情報がCohereのプライバシーポリシーに従って収集、使用、共有されることを承認します。Cohere LabsおよびCohereの研究、イベント、製品、サービスに関するメールアップデートを受け取ります。いつでも購読を解除できます。" extra_gated_fields: 名前: text 所属: text 国: type: select options: - アルバ - アフガニスタン - アンゴラ - アンギラ - オーランド諸島 - アルバニア - アンドラ - アラブ首長国連邦 - アルゼンチン - アルメニア - アメリカ領サモア - 南極 - フランス領南方・南極地域 - アンティグア・バーブーダ - オーストラリア - オーストリア - アゼルバイジャン - ブルンジ - ベルギー - ベナン - ボネール、シント・ユースタティウスおよびサバ - ブルキナファソ - バングラデシュ - ブルガリア - バーレーン - バハマ - ボスニア・ヘルツェゴビナ - サン・バルテルミー - ベラルーシ - ベリーズ - バミューダ - ボリビア多民族国 - ブラジル - バルバドス - ブルネイ・ダルサラーム - ブータン - ブーベ島 - ボツワナ - 中央アフリカ共和国 - カナダ - ココス(キーリング)諸島 - スイス - チリ - 中国 - コートジボワール - カメルーン - コンゴ民主共和国 - クック諸島 - コロンビア - コモロ - カーボベルデ - コスタリカ - キューバ - キュラソー - クリスマス島 - ケイマン諸島 - キプロス - チェコ - ドイツ - ジブチ - ドミニカ - デンマーク - ドミニカ共和国 - アルジェリア - エクアドル - エジプト - エリトリア - 西サハラ - スペイン - エストニア - エチオピア - フィンランド - フィジー - フォークランド諸島(マルビナス) - フランス - フェロー諸島 - ミクロネシア連邦 - ガボン - イギリス - ジョージア - ガーンジー - ガーナ - ジブラルタル - ギニア - グアドループ - ガンビア - ギニアビサウ - 赤道ギニア - ギリシャ - グレナダ - グリーンランド - グアテマラ - フランス領ギアナ - グアム - ガイアナ - 香港 - ハード島とマクドナルド諸島 - ホンジュラス - クロアチア - ハイチ - ハンガリー - インドネシア - マン島 - インド - イギリス領インド洋地域 - アイルランド - イラン・イスラム共和国 - イラク - アイスランド - イスラエル - イタリア - ジャマイカ - ジャージー - ヨルダン - 日本 - カザフスタン - ケニア - キルギス - カンボジア - キリバス - セントクリストファー・ネイビス - 韓国 - クウェート - ラオス人民民主共和国 - レバノン - リベリア - リビア - セントルシア - リヒテンシュタイン - スリランカ - レソト - リトアニア - ルクセンブルク - ラトビア - マカオ - サン・マルタン(フランス領) - モロッコ - モナコ - モルドバ共和国 - マダガスカル - モルディブ - メキシコ - マーシャル諸島 - 北マケドニア - マリ - マルタ - ミャンマー - モンテネグロ - モンゴル - 北マリアナ諸島 - モザンビーク - モーリタニア - モントセラト - マルティニーク - モーリシャス - マラウイ - マレーシア - マヨット - ナミビア - ニューカレドニア - ニジェール - ノーフォーク島 - ナイジェリア - ニカラグア - ニウエ - オランダ - ノルウェー - ネパール - ナウル - ニュージーランド - オマーン - パキスタン - パナマ - ピトケアン諸島 - ペルー - フィリピン - パラオ - パプアニューギニア - ポーランド - プエルトリコ - 北朝鮮 - ポルトガル - パラグアイ - パレスチナ自治区 - フランス領ポリネシア - カタール - レユニオン - ルーマニア - ロシア - ルワンダ - サウジアラビア - スーダン - セネガル - シンガポール - サウスジョージア・サウスサンドウィッチ諸島 - セントヘレナ・アセンションおよびトリスタンダクーニャ - スバールバル諸島およびヤンマイエン島 - ソロモン諸島 - シエラレオネ - エルサルバドル - サンマリノ - ソマリア - サンピエール島・ミクロン島 - セルビア - 南スーダン - サントメ・プリンシペ - スリナム - スロバキア - スロベニア - スウェーデン - エスワティニ - シント・マールテン(オランダ領) - セーシェル - シリア・アラブ共和国 - タークス・カイコス諸島 - チャド - トーゴ - タイ - タジキスタン - トケラウ - トルクメニスタン - 東ティモール - トンガ - トリニダード・トバゴ - チュニジア - トルコ - ツバル - 台湾 - タンザニア連合共和国 - ウガンダ - ウクライナ - アメリカ合衆国領有小離島 - ウルグアイ - アメリカ合衆国 - ウズベキスタン - バチカン市国 - セントビンセント・グレナディーン - ベネズエラ・ボリバル共和国 - イギリス領ヴァージン諸島 - アメリカ領ヴァージン諸島 - ベトナム - バヌアツ - ウォリス・フツナ - サモア - イエメン - 南アフリカ - ザンビア - ジンバブエ
このモデルを非営利目的でのみ使用することに同意します: checkbox
Aya-23-8B モデルカード
注: これはAyaの旧バージョンです。最新版はAya Expanse 8Bでこちらから利用可能です。また、マルチモーダル版のAya Vision 8Bもこちらで公開されています。
Aya ExpanseとAya Visionをお試しください:
最新のAyaモデルは、重みをダウンロードする前に、ホストされたHugging Faceスペースこちらで試すことができます。
モデル概要
Aya 23は、高度な多言語能力を持つ命令ファインチューニングモデルのオープンウェイト研究リリースです。Aya 23は、高性能な事前学習済みCommandファミリーモデルと最近リリースされたAya Collectionを組み合わせることに焦点を当てています。その結果、23言語をサポートする強力な多言語大規模言語モデルが誕生しました。
このモデルカードは、Aya 23モデルの80億パラメータ版に対応しています。350億パラメータ版もリリースしており、こちらから見つけることができます。
対応言語は23言語: アラビア語、中国語(簡体字・繁体字)、チェコ語、オランダ語、英語、フランス語、ドイツ語、ギリシャ語、ヘブライ語、ヒンディー語、インドネシア語、イタリア語、日本語、韓国語、ペルシャ語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、スペイン語、トルコ語、ウクライナ語、ベトナム語
開発者: Cohere Labs と Cohere
- 連絡先: Cohere Labs: cohere.for.ai
- ライセンス: CC-BY-NC、Cohere Lab's 利用規約の遵守も必要
- モデル: aya-23-8B
- モデルサイズ: 80億パラメータ
使用方法
このモデルに必要な変更を含むソースリポジトリからtransformersをインストールしてください
# pip install transformers==4.41.1
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "CohereLabs/aya-23-8B"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
# command-r-plusチャットテンプレートでメッセージをフォーマット
messages = [{"role": "user", "content": "Anneme onu ne kadar sevdiğimi anlatan bir mektup yaz"}]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt")
## <BOS_TOKEN><|START_OF_TURN_TOKEN|><|USER_TOKEN|>Anneme onu ne kadar sevdiğimi anlatan bir mektup yaz<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|CHATBOT_TOKEN|>
gen_tokens = model.generate(
input_ids,
max_new_tokens=100,
do_sample=True,
temperature=0.3,
)
gen_text = tokenizer.decode(gen_tokens[0])
print(gen_text)
サンプルノートブック
このノートブックでは、Aya 23 (8B)の詳細な使用方法、QLoRAを使った推論とファインチューニングを紹介しています。
モデル詳細
入力: モデルはテキストのみを入力として受け取ります。
出力: モデルはテキストのみを生成します。
モデルアーキテクチャ: Aya-23-8Bは、最適化されたトランスフォーマーアーキテクチャを使用する自己回帰型言語モデルです。事前学習後、このモデルは人間の指示に従うようにファインチューニング(IFT)されています。
対応言語: このモデルは特に多言語性に最適化されており、以下の言語をサポートしています: アラビア語、中国語(簡体字・繁体字)、チェコ語、オランダ語、英語、フランス語、ドイツ語、ギリシャ語、ヘブライ語、ヒンディー語、インドネシア語、イタリア語、日本語、韓国語、ペルシャ語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、スペイン語、トルコ語、ウクライナ語、ベトナム語
コンテキスト長: 8192
評価


ベースモデル、データ、命令チューニング、評価に関する詳細は、Aya 23技術レポートを参照してください。
モデルカード連絡先
このモデルカードの誤りや追加質問については、labs@cohere.comまでご連絡ください。
利用規約
このモデルのリリースにより、世界中の研究者に対して高性能な多言語モデルの重みを公開することで、コミュニティベースの研究活動がよりアクセスしやすくなることを願っています。このモデルは、CC-BY-NCライセンスと利用規約追加条項で管理されており、Cohere Lab's 利用規約の遵守も必要です。
今すぐモデルをお試しください
Aya 23はCohereのプレイグラウンドで試すことができます。専用のHugging Faceスペースこちらでも利用可能です。
引用情報
@misc{aryabumi2024aya,
title={Aya 23: Open Weight Releases to Further Multilingual Progress},
author={Viraat Aryabumi and John Dang and Dwarak Talupuru and Saurabh Dash and David Cairuz and Hangyu Lin and Bharat Venkitesh and Madeline Smith and Kelly Marchisio and Sebastian Ruder and Acyr Locatelli and Julia Kreutzer and Nick Frosst and Phil Blunsom and Marzieh Fadaee and Ahmet Üstün and Sara Hooker},
year={2024},
eprint={2405.15032},
archivePrefix={arXiv},
primaryClass={cs.CL}
}



