# 多語言大模型

Falcon H1 34B Instruct
其他
Falcon-H1是由TII開發的高效混合架構語言模型,結合了Transformers和Mamba架構的優勢,支持英語和多語言任務。
大型語言模型 Transformers
F
tiiuae
2,454
28
Qwen3 14B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-14B-Base是通義千問系列最新一代大語言模型,提供148億參數的稠密模型,支持32k上下文長度,覆蓋119種語言。
大型語言模型 Transformers
Q
unsloth
2,120
1
Qwen3 4B Base
Apache-2.0
Qwen3-4B-Base是通義千問系列最新一代40億參數量的預訓練語言模型,支持32k上下文長度和多語言處理。
大型語言模型 Transformers
Q
unsloth
15.15k
1
Qwen3 1.7B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-1.7B-Base是通義千問系列最新一代大語言模型,提供高質量的預訓練語言模型能力。
大型語言模型 Transformers
Q
unsloth
689
1
Qwen3 1.7B Base
Apache-2.0
Qwen3-1.7B-Base是通義系列最新一代大語言模型,提供了一系列密集模型和專家混合(MoE)模型,在訓練數據、模型架構和優化技術等方面進行了大量改進。
大型語言模型 Transformers
Q
unsloth
7,444
2
Qwen3 0.6B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-0.6B-Base是通義系列最新一代大語言模型,具有0.6B參數規模,支持119種語言,上下文長度達32,768標記。
大型語言模型 Transformers
Q
unsloth
10.84k
1
Qwen3 0.6B Base
Apache-2.0
Qwen3-0.6B-Base是通義千問系列的最新一代大語言模型,提供了一系列密集模型和混合專家(MoE)模型。
大型語言模型 Transformers
Q
unsloth
10.84k
2
Qwen3 14B Base
Apache-2.0
通義千問系列最新一代大語言模型,提供148億參數的預訓練基礎模型,支持32k超長上下文理解
大型語言模型 Transformers
Q
Qwen
9,718
21
Qwen3 8B Base
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整的稠密模型與混合專家(MoE)模型體系,覆蓋119種語言的36萬億token預訓練數據。
大型語言模型 Transformers
Q
Qwen
26.79k
26
Emma 500 Llama2 7b
EMMA-500 是基於 Llama 2 7B 架構的多語言大語言模型,支持 500 多種語言,在常識推理、機器翻譯等任務中表現卓越。
大型語言模型 Transformers
E
MaLA-LM
65
14
360zhinao3 7B O1.5
Apache-2.0
360智腦3-7B-O1.5是奇虎360開源的長思維鏈模型,基於360智腦3-7B-Instruct微調,支持複雜推理任務。
大型語言模型 Transformers 支持多種語言
3
qihoo360
35
3
Qwen2.5 72B Instruct GGUF
其他
Qwen2.5-72B-Instruct的GGUF量化版本,支持多種精度格式,適用於不同硬件環境的高效推理。
大型語言模型 英語
Q
Mungert
1,439
4
Llama 3.3 70B Instruct Quantized.w4a16
基於Meta-Llama-3.1架構的量化優化模型,支持多語言,適用於商業和研究場景,在減少資源需求的同時保持高性能。
大型語言模型 Transformers 支持多種語言
L
RedHatAI
19.25k
1
Llamax3 8B Alpaca
MIT
LLaMAX是一款具備強大多語言能力的語言模型,支持超100種語言的翻譯,性能超越同等規模的大語言模型。
大型語言模型 Transformers
L
LLaMAX
1,488
26
Hebrew Gemma 11B V2
其他
Hebrew-Gemma-11B-V2 是一個開源的希伯來語/英語預訓練生成文本大語言模型,擁有110億參數,基於Google的Gemma-7B架構。
大型語言模型 Transformers 支持多種語言
H
yam-peleg
5,292
13
Typhoon 7b Instruct 02 19 2024
Apache-2.0
Typhoon-0219是基於Typhoon 7B開發的指令微調泰語大語言模型,參數量達70億,支持泰語和英語,專為指令響應優化。
大型語言模型 Transformers
T
scb10x
94
2
Koalpaca Polyglot 12.8B
Apache-2.0
基於EleutherAI/polyglot-ko-12.8b在韓國羊駝數據集v1.1b上微調的多語言韓文生成模型
大型語言模型 Transformers 韓語
K
beomi
3,998
56
Llama 7b Hf
其他
LLaMA是由Meta AI開發的開放高效基礎語言模型,提供7B參數版本,支持20種語言,專注於自然語言處理研究。
大型語言模型 Transformers
L
yahma
22.30k
85
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase