🚀 Yi
Yiシリーズモデルは、01.AIによってゼロから訓練された次世代のオープンソース大規模言語モデルです。3Tの多言語コーパスで訓練された双言語モデルとして、言語理解、常識推論、読解力などの分野で高い性能を発揮し、世界でも有数の強力な大規模言語モデルの一つとなっています。
🚀 クイックスタート
選択肢
- pip:pipを使用してYiをインストールすることができます。
- docker:Dockerコンテナを使用してYiを実行することができます。
- llama.cpp:llama.cppを使用してYiを実行することができます。
- conda-lock:conda-lockを使用してYiをインストールすることができます。
- Webデモ:Webデモを使用してYiを試すことができます。
インストール方法
pip
pip install ...
docker
docker run ...
llama.cpp
...
conda-lock
conda-lock install ...
Webデモ
以下のリンクからWebデモを試すことができます。
✨ 主な機能
モデルの種類
チャットモデル
- 4-bitシリーズモデルはAWQで量子化されています。
- 8-bitシリーズモデルはGPTQで量子化されています。
- すべての量子化モデルは、消費者向けGPU(例:3090、4090)でのデプロイが可能なため、使用障壁が低くなっています。
ベースモデル
- 200kはおよそ40万文字に相当します。
- 2023年11月5日にリリースされたYi-34B-200Kの前バージョンを使用する場合は、git checkout 069cd341d60f4ce4b07ec394e82b79e94f656cf
を実行して重みをダウンロードしてください。
ニュース
🔥 2024-07-29:Yi Cookbook 1.0がリリースされ、中国語と英語のチュートリアルとサンプルが用意されています。
🎯 2024-05-13:Yi-1.5シリーズモデルがオープンソース化され、コーディング、数学、推論、命令追従能力がさらに向上しました。
🎯 2024-03-16:Yi-9B-200K
がオープンソース化され、一般公開されました。
🎯 2024-03-08:Yi Tech Reportが公開されました!
🔔 2024-03-07:Yi-34B-200Kの長文処理能力が向上しました。
"Needle-in-a-Haystack"テストでは、Yi-34B-200Kの性能が10.5%向上し、89.3%から99.8%にまで上昇しました。引き続き、5Bトークンの長文コンテキストデータミックスでモデルを事前学習し、ほぼ完全な性能を実証しています。
🎯 2024-03-06:Yi-9B
がオープンソース化され、一般公開されました。
Yi-9B
は、Mistral-7B、SOLAR-10.7B、Gemma-7B、DeepSeek-Coder-7B-Base-v1.5などの同規模のオープンソースモデルの中でもトップクラスの性能を発揮し、特にコード、数学、常識推論、読解力の分野で優れています。
🎯 2024-01-23:Yi-VLモデルのYi-VL-34B
とYi-VL-6B
がオープンソース化され、一般公開されました。
Yi-VL-34B
は、最新のベンチマークであるMMMUとCMMMU(2024年1月までのデータに基づく)で、すべての既存のオープンソースモデルの中で1位を獲得しています。
🎯 2023-11-23:チャットモデルがオープンソース化され、一般公開されました。
このリリースには、以前にリリースされたベースモデルに基づく2つのチャットモデル、GPTQで量子化された2つの8-bitモデル、およびAWQで量子化された2つの4-bitモデルが含まれています。
- `Yi-34B-Chat`
- `Yi-34B-Chat-4bits`
- `Yi-34B-Chat-8bits`
- `Yi-6B-Chat`
- `Yi-6B-Chat-4bits`
- `Yi-6B-Chat-8bits`
以下のリンクから、それらの一部を対話形式で試すことができます。
🔔 2023-11-23:Yiシリーズモデルのコミュニティライセンス契約がv2.1に更新されました。
🔥 2023-11-08:Yi-34Bチャットモデルの招待テスト。
申し込みフォーム:
- [英語](https://cn.mikecrm.com/l91ODJf)
- [中国語](https://cn.mikecrm.com/gnEZjiQ)
🎯 2023-11-05:ベースモデルのYi-6B-200K
とYi-34B-200K
がオープンソース化され、一般公開されました。
このリリースには、前回のリリースと同じパラメータサイズの2つのベースモデルが含まれていますが、コンテキストウィンドウが200Kに拡張されています。
🎯 2023-11-02:ベースモデルのYi-6B
とYi-34B
がオープンソース化され、一般公開されました。
最初の公開リリースには、6Bと34Bのパラメータサイズを持つ2つの双言語(英語/中国語)ベースモデルが含まれています。どちらも4Kのシーケンス長で訓練されており、推論時に32Kに拡張することができます。
📚 ドキュメント
微調整
Yiモデルは、特定の要件に合わせて微調整することができます。微調整の詳細については、Yi Tech Reportを参照してください。
量子化
4-bitシリーズモデルはAWQで量子化されており、8-bitシリーズモデルはGPTQで量子化されています。量子化モデルは、消費者向けGPU(例:3090、4090)でのデプロイが可能なため、使用障壁が低くなっています。
デプロイ
Yiモデルをデプロイする場合は、ソフトウェアとハードウェアの要件を満たしていることを確認してください。
FAQ
よくある質問については、FAQセクションを参照してください。
学習ハブ
Yi Learning Hubで学習を進めることができます。
🔧 技術詳細
エコシステム
上流
TransformerとLlamaのオープンソースコミュニティに感謝します。彼らのおかげで、ゼロから構築するための労力が削減され、AIエコシステム内で同じツールを利用することが可能になりました。
下流
- サービング:Yiモデルは、サービングに適しています。
- 量子化:4-bitシリーズモデルはAWQで量子化されており、8-bitシリーズモデルはGPTQで量子化されています。
- 微調整:Yiモデルは、特定の要件に合わせて微調整することができます。
- API:Yiモデルは、APIを介して利用することができます。
ベンチマーク
ベースモデルの性能
Yi-34Bモデルは、Hugging Face Open LLM Leaderboard(事前学習)やC-Evalなどの様々なベンチマークで、英語と中国語の両方で、Falcon-180B、Llama-70B、Claudeなどのすべての既存のオープンソースモデルの中で1位を獲得しています(2023年11月までのデータに基づく)。
チャットモデルの性能
Yi-34B-Chatモデルは、AlpacaEval Leaderboardで、GPT-4 Turboに次いで2位を獲得し、GPT-4、Mixtral、Claudeなどの他の大規模言語モデルを上回っています(2024年1月までのデータに基づく)。
技術レポート
Yi Tech Reportを参照してください。
引用
@article{...} # 具体的な引用情報は元ドキュメントに合わせて記載
📄 ライセンス
このプロジェクトは、Apache-2.0ライセンスの下で公開されています。詳細については、LICENSEを参照してください。