# 多語言混合訓練

Gemma 2 Llama Swallow 9b It V0.1
Gemma-2-Llama-Swallow系列模型是在Gemma-2基礎上進行持續預訓練構建的多語言大模型,特別增強了日語能力。
大型語言模型 Transformers 支持多種語言
G
tokyotech-llm
2,491
3
Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100B是一個專注於日語能力的1000億參數大語言模型,基於1.5萬億token的多語言數據預訓練,並通過日語合成數據增強指令跟隨能力。
大型語言模型 Transformers 支持多種語言
S
stockmark
1,004
9
Llama 3 Youko 8b
基於Meta-Llama-3-8B在混合日語和英語數據集上進行220億token持續預訓練的日語優化模型
大型語言模型 Transformers 支持多種語言
L
rinna
1,249
60
Bangla Llama 7b Instruct V0.1
基於LLaMA-2架構優化的70億參數孟加拉語大語言模型,支持指令跟隨任務
大型語言模型 Transformers 支持多種語言
B
BanglaLLM
32
5
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1 是一個基於Mistral架構的7B參數德語語言模型,支持德語和英語,採用Apache-2.0許可證發佈。
大型語言模型 Transformers 支持多種語言
D
TheBloke
81
4
Swiss German Xlm Roberta Base
該模型是基於xlm-roberta-base通過持續預訓練在瑞士德語文本數據上微調而成的多語言模型,支持瑞士德語和標準德語處理。
大型語言模型 Transformers 其他
S
ZurichNLP
17
2
Openhathi 7B Hi V0.1 Base
OpenHathi系列的首個模型,基於Llama2架構,支持印地語、英語及混合語,擁有70億參數。
大型語言模型 其他
O
sarvamai
655
112
Vietnamese Llama2 7b 40GB
其他
基於Llama2-chat 7B的越南語優化模型,通過增量預訓練和高效分詞器顯著提升越南語處理能力
大型語言模型 Transformers 支持多種語言
V
bkai-foundation-models
23
40
Koalpaca Llama 1 7b
Apache-2.0
KoAlpaca是基於斯坦福羊駝模型的韓語版本,結合了LLAMA架構與Polyglot-ko技術,專為韓語文本生成任務優化。
大型語言模型 Transformers 支持多種語言
K
beomi
213
28
Byt5 Korean Base
Apache-2.0
ByT5-韓語是谷歌ByT5的韓語定製擴展版本,特別優化了韓語音節的編碼處理。
大型語言模型 Transformers
B
everdoubling
55
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase