模型概述
模型特點
模型能力
使用案例
🚀 易(Yi)大語言模型
易(Yi)系列模型是由01.AI從頭開始訓練的下一代開源大語言模型。它以雙語語言模型為目標,在3T多語言語料庫上進行訓練,成為全球最強大的大語言模型之一,在語言理解、常識推理、閱讀理解等方面表現出色。
🚀 快速開始
💡 提示:如果您想開始使用易(Yi)模型並探索不同的推理方法,請查看易(Yi)使用指南。
選擇您的使用方式
選擇以下方式之一開啟您的易(Yi)之旅!
🎯 本地部署易(Yi)模型
如果您想在本地部署易(Yi)模型:
- 🙋♀️ 並且您有足夠的資源(例如,NVIDIA A800 80GB),您可以選擇以下方法:
- pip安裝:可參考相應的pip安裝步驟。
- docker部署:按照docker部署的流程操作。
- conda - lock:使用conda - lock進行環境管理和部署。
- llama.cpp:藉助llama.cpp工具實現本地運行。
- Web演示:通過Web演示體驗模型功能。
🎯 使用在線平臺體驗
您也可以通過以下在線平臺體驗易(Yi)模型:
✨ 主要特性
- 🤖 易(Yi)系列模型是由01.AI從頭開始訓練的下一代開源大語言模型。
- 🙌 作為雙語語言模型,在3T多語言語料庫上訓練,成為全球強大的大語言模型之一,在語言理解、常識推理、閱讀理解等方面表現出色。例如:
- 易(Yi) - 34B - Chat模型在AlpacaEval排行榜上位居第二(僅次於GPT - 4 Turbo),超越了其他大語言模型(如GPT - 4、Mixtral、Claude)(基於2024年1月的可用數據)。
- 易(Yi) - 34B模型在包括Hugging Face Open LLM Leaderboard(預訓練)和C - Eval等各種基準測試中,在英語和中文方面均排名所有現有開源模型之首(如Falcon - 180B、Llama - 70B、Claude)(基於2023年11月的可用數據)。
- 🙏 (感謝Llama)感謝Transformer和Llama開源社區,它們減少了從頭構建的工作量,並使AI生態系統中能夠使用相同的工具。
如果您對易(Yi)採用Llama架構和許可證使用政策感興趣,請查看 易(Yi)與Llama的關係 ⬇️
> 💡 簡而言之 > > 易(Yi)系列模型採用與Llama相同的模型架構,但**不是**Llama的衍生模型。 - 易(Yi)和Llama都基於Transformer結構,自2018年以來,Transformer結構一直是大語言模型的標準架構。 - 基於Transformer架構,Llama因其出色的穩定性、可靠的收斂性和強大的兼容性,成為大多數最先進開源模型的新基石。這使得Llama成為包括易(Yi)在內的模型公認的基礎框架。 - 得益於Transformer和Llama架構,其他模型可以利用它們的優勢,減少從頭構建的工作量,並在其生態系統中使用相同的工具。 - 然而,易(Yi)系列模型不是Llama的衍生模型,因為它們不使用Llama的權重。 - 由於大多數開源模型都採用Llama的結構,決定模型性能的關鍵因素是訓練數據集、訓練管道和訓練基礎設施。 - 易(Yi)以獨特的專有方式發展,完全從頭開始獨立創建了自己的高質量訓練數據集、高效的訓練管道和強大的訓練基礎設施。這一努力使易(Yi)系列模型在[2023年12月的Alpaca排行榜](https://tatsu-lab.github.io/alpaca_eval/)上僅次於GPT4,超越了Llama。
📦 安裝指南
文檔中未提及具體的安裝命令,暫不提供安裝指南。
💻 使用示例
基礎對話示例
- 易(Yi) - 34B - Chat
- 輸入:"hi"
- 輸出:" Hello! How can I assist you today?"
- 易(Yi) - 34B
- 輸入:"There's a place where time stands still. A place of breath taking wonder, but also"
- 輸出:" an eerie sense that something is just not right…\nBetween the two worlds lies The Forgotten Kingdom - home to creatures long since thought extinct and ancient magic so strong it defies belief! Only here can you find what has been lost for centuries: An Elixir Of Life which will restore youth and vitality if only those who seek its power are brave enough to face up against all manner of dangers lurking in this mysterious land! But beware; some say there may even exist powerful entities beyond our comprehension whose intentions towards humanity remain unclear at best ---- they might want nothing more than destruction itself rather then anything else from their quest after immortality (and maybe someone should tell them about modern medicine)? In any event though – one thing remains true regardless : whether or not success comes easy depends entirely upon how much effort we put into conquering whatever challenges lie ahead along with having faith deep down inside ourselves too ;) So let’s get started now shall We?"
📚 詳細文檔
模型介紹
易(Yi)模型有多種規模,適用於不同的用例。您還可以對易(Yi)模型進行微調,以滿足您的特定需求。如果您要部署易(Yi)模型,請確保滿足軟硬件要求。
對話模型
模型 | 下載地址 |
---|---|
易(Yi) - 34B - Chat | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 34B - Chat - 4bits | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 34B - Chat - 8bits | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 6B - Chat | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 6B - Chat - 4bits | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 6B - Chat - 8bits | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
- 4位系列模型通過AWQ進行量化。
- 8位系列模型通過GPTQ進行量化
- 所有量化模型的使用門檻較低,因為它們可以部署在消費級GPU(如3090、4090)上。
基礎模型
模型 | 下載地址 |
---|---|
易(Yi) - 34B | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 34B - 200K | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 9B | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 9B - 200K | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 6B | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
易(Yi) - 6B - 200K | • 🤗 Hugging Face • 🤖 ModelScope • 🟣 wisemodel |
- 200k大約相當於400,000箇中文字符。
- 如果您想使用易(Yi) - 34B - 200K的先前版本(2023年11月5日發佈),運行git checkout 069cd341d60f4ce4b07ec394e82b79e94f656cf
下載權重。
模型信息
-
基礎模型和對話模型通用信息 | 模型 | 介紹 | 默認上下文窗口 | 預訓練令牌數 | 訓練數據截止日期 | | ---- | ---- | ---- | ---- | ---- | | 6B系列模型 | 適用於個人和學術用途。 | 4K | 3T | 截至2023年6月 | | 9B系列模型 | 在易(Yi)系列模型中,最擅長編碼和數學。 | 4K | 易(Yi) - 9B在易(Yi) - 6B的基礎上繼續訓練,使用0.8T令牌。 | 截至2023年6月 | | 34B系列模型 | 適用於個人、學術和商業(特別是中小企業)用途。它是一種經濟高效的解決方案,價格實惠且具備湧現能力。 | 4K | 3T | 截至2023年6月 |
-
對話模型
關於對話模型的侷限性,請查看以下解釋 ⬇️
- 幻覺:指模型生成事實錯誤或無意義的信息。由於模型的響應更加多樣化,出現基於不準確數據或邏輯推理的幻覺的可能性更高。
- 再生的非確定性:在嘗試重新生成或採樣響應時,可能會出現結果不一致的情況。更高的多樣性可能導致即使在相似的輸入條件下也會產生不同的結果。
- 累積誤差:當模型響應中的誤差隨著時間累積時會出現這種情況。隨著模型生成更多樣化的響應,小誤差累積成更大誤差的可能性增加,特別是在複雜任務中,如擴展推理、數學問題解決等。
- 為了獲得更連貫和一致的響應,建議調整生成配置參數,如溫度、top_p或top_k。這些調整可以幫助平衡模型輸出的創造性和連貫性。
發佈的對話模型僅使用監督微調(SFT)進行了訓練。與其他標準對話模型相比,我們的模型產生的響應更加多樣化,適用於各種下游任務,如創意場景。此外,這種多樣性有望提高生成更高質量響應的可能性,這將有利於後續的強化學習(RL)訓練。
然而,這種更高的多樣性可能會加劇某些現有問題,包括:
新聞動態
🔥 2024年7月29日:[易(Yi)使用指南1.0](https://github.com/Haijian06/Yi/tree/main/Cookbook)發佈,包含中英文教程和示例。
🎯 2024年5月13日:[易(Yi) - 1.5系列模型](https://github.com/01-ai/Yi-1.5)開源,進一步提高了編碼、數學、推理和指令遵循能力。
🎯 2024年3月16日:`易(Yi) - 9B - 200K`開源並向公眾開放。
🎯 2024年3月8日:[易(Yi)技術報告](https://arxiv.org/abs/2403.04652)發佈!
🔔 2024年3月7日:易(Yi) - 34B - 200K的長文本處理能力得到增強。
在“大海撈針”測試中,易(Yi) - 34B - 200K的性能提高了10.5%,從89.3%提升到令人印象深刻的99.8%。我們繼續在5B令牌的長上下文數據混合上對模型進行預訓練,並展示了近乎全綠的性能。
🎯 2024年3月6日:`易(Yi) - 9B`開源並向公眾開放。
`易(Yi) - 9B`在一系列類似規模的開源模型(包括Mistral - 7B、SOLAR - 10.7B、Gemma - 7B、DeepSeek - Coder - 7B - Base - v1.5等)中表現出色,尤其在代碼、數學、常識推理和閱讀理解方面表現突出。
🎯 2024年1月23日:易(Yi) - VL模型,`[易(Yi) - VL - 34B](https://huggingface.co/01-ai/Yi-VL-34B)`和`[易(Yi) - VL - 6B](https://huggingface.co/01-ai/Yi-VL-6B)`開源並向公眾開放。
`[易(Yi) - VL - 34B](https://huggingface.co/01-ai/Yi-VL-34B)`在最新的基準測試中,包括[MMMU](https://arxiv.org/abs/2311.16502)和[CMMMU](https://arxiv.org/abs/2401.11944)(基於2024年1月的可用數據),在所有現有開源模型中排名**第一**。
🎯 2023年11月23日:[對話模型](https://hf-mirror.com/api/resolve-cache/models/01-ai/Yi-34B-200K/e0ae1afac6b69f604556efd441ab4befafb2a835/README.md?download=true&etag=%222395a3bc02655e084849e9e0a9e2d8462ed0acc9%22#chat-models)開源並向公眾開放。
本次發佈包含基於先前發佈的基礎模型的兩個對話模型、兩個通過GPTQ量化的8位模型和兩個通過AWQ量化的4位模型。 - `易(Yi) - 34B - Chat` - `易(Yi) - 34B - Chat - 4bits` - `易(Yi) - 34B - Chat - 8bits` - `易(Yi) - 6B - Chat` - `易(Yi) - 6B - Chat - 4bits` - `易(Yi) - 6B - Chat - 8bits`
您可以在以下平臺交互式嘗試其中一些模型:
🔔 2023年11月23日:易(Yi)系列模型社區許可協議更新為[2.1版本](https://github.com/01-ai/Yi/blob/main/MODEL_LICENSE_AGREEMENT.txt)。
🔥 2023年11月8日:易(Yi) - 34B對話模型邀請測試。
申請表: - [英文](https://cn.mikecrm.com/l91ODJf) - [中文](https://cn.mikecrm.com/gnEZjiQ)
🎯 2023年11月5日:[基礎模型](https://hf-mirror.com/api/resolve-cache/models/01-ai/Yi-34B-200K/e0ae1afac6b69f604556efd441ab4befafb2a835/README.md?download=true&etag=%222395a3bc02655e084849e9e0a9e2d8462ed0acc9%22#base-models),`易(Yi) - 6B - 200K`和`易(Yi) - 34B - 200K`開源並向公眾開放。
本次發佈包含兩個基礎模型,參數規模與之前發佈的相同,但上下文窗口擴展到200K。
🎯 2023年11月2日:[基礎模型](https://hf-mirror.com/api/resolve-cache/models/01-ai/Yi-34B-200K/e0ae1afac6b69f604556efd441ab4befafb2a835/README.md?download=true&etag=%222395a3bc02655e084849e9e0a9e2d8462ed0acc9%22#base-models),`易(Yi) - 6B`和`易(Yi) - 34B`開源並向公眾開放。
首次公開發布包含兩個雙語(英語/中文)基礎模型,參數規模分別為6B和34B。它們都以4K序列長度進行訓練,在推理時可以擴展到32K。
微調
文檔中未提及具體的微調步驟和方法,暫不提供詳細內容。
量化
文檔中未提及具體的量化步驟和方法,暫不提供詳細內容。
部署
文檔中未提及具體的部署步驟和軟硬件要求,暫不提供詳細內容。
常見問題解答(FAQ)
文檔中未提及常見問題及解答,暫不提供詳細內容。
學習中心
您可以在易(Yi)學習中心進行學習和提升。
🔧 技術細節
文檔中未提及具體的技術實現細節,暫不提供詳細內容。
📄 許可證
本項目採用Apache - 2.0許可證。



