# 多語言指令微調

Mistral Small 3.2 24B Instruct 2506 Bf16
Apache-2.0
這是一個基於Mistral-Small-3.2-24B-Instruct-2506轉換的MLX格式模型,適用於指令跟隨任務。
大型語言模型 支持多種語言
M
mlx-community
163
1
Samastam It V1
Samastam是Sarvam-1模型的早期指導變體,基於Alpaca-cleaned數據集微調,支持多語言指令響應。
大型語言模型 Transformers
S
hathibelagal
188
1
Mistral Small 24B Instruct 2501 GGUF
Apache-2.0
Mistral-Small-24B-Instruct-2501 是一個24B參數規模的指令微調大語言模型,支持多語言文本生成任務。
大型語言模型 支持多種語言
M
bartowski
48.61k
111
Llama 3.3 70B Instruct Abliterated GGUF
基於Llama 3.3架構的70B參數大語言模型,支持多語言文本生成任務,經過量化優化適用於不同硬件環境
大型語言模型 支持多種語言
L
bartowski
7,786
8
Granite 3.3 2b Instruct GGUF
Apache-2.0
IBM-Granite的20億參數指導模型,支持多語言和長上下文任務,具備結構化推理能力。
大型語言模型
G
lmstudio-community
444
2
Llama 4 Scout 17B 16E Instruct Bnb 4bit
其他
這是原始模型 meta-llama/Llama-4-Scout-17B-16E-Instruct 的量化版本,採用 int4 量化技術優化,適用於多語言任務。
大型語言模型 Transformers 支持多種語言
L
bnb-community
1,286
1
Llama 4 Maverick 17B 16E Instruct 4bit
其他
基於meta-llama/Llama-4-Maverick-17B-128E-Instruct轉換的4位量化模型,支持多語言文本生成任務
大型語言模型 支持多種語言
L
mlx-community
538
6
Mistral Small 3.1 24B Instruct 2503 Q5 K M GGUF
Apache-2.0
基於Mistral Small 3.1的24B參數指令微調模型,支持多語言和視覺理解,適用於本地部署和高效推理。
文本生成圖像 支持多種語言
M
Triangle104
57
1
Llama 3.1 70B Instruct GGUF
基於Llama-3.1-70B的超低位量化(1-2位)模型,採用IQ-DynamicGate技術實現精度自適應量化,在保持內存效率的同時提升準確性。
大型語言模型 支持多種語言
L
Mungert
19.52k
3
Qwen2.5 7B Latent Verification
Apache-2.0
Qwen2.5-7B-Instruct 是通義千問大模型系列的最新7B參數指令微調模型,具備增強的知識量、代碼與數學能力,支持128K tokens長上下文和多語言處理。
大型語言模型 Transformers 英語
Q
jacobpwarren
32
4
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
Mistral-Small-3.1-24B-Instruct-2503 是一個24B參數規模的多語言指令微調模型,支持多種語言和任務,適用於文本生成和對話場景。
大型語言模型 支持多種語言
M
second-state
1,059
1
Gams 9B Instruct
GaMS-9B-Instruct是基於谷歌Gemma 2系列改進的斯洛文尼亞生成模型,支持斯洛文尼亞語、英語及部分克羅地亞語、塞爾維亞語和波斯尼亞語,專注於文本生成任務。
大型語言模型 支持多種語言
G
cjvt
1,652
2
QWQ Stock
基於多個Qwen系列32B參數模型的融合模型,採用Model Stock方法融合,增強多語言處理能力
大型語言模型 Transformers
Q
wanlige
368
7
Salamandra 2b Instruct GGUF
Apache-2.0
基於GGUF格式的2B參數多語言指令微調模型,支持30+種語言,適用於文本生成任務。
大型語言模型 Transformers
S
tensorblock
120
1
EXAONE 3.5 32B Instruct Llamafied
其他
這是LG AI Research開發的EXAONE-3.5-32B-Instruct模型的llamafied版本,是一個支持英語和韓語的大語言模型。
大型語言模型 Transformers 支持多種語言
E
beomi
483
5
Granite 3.0 3b A800m Instruct
Apache-2.0
IBM開發的30億參數指令微調語言模型,基於Granite-3.0架構,支持多語言任務和商業應用
大型語言模型 Transformers
G
ibm-granite
5,240
18
Granite 3.0 8b Instruct
Apache-2.0
Granite-3.0-8B-Instruct是一個基於Granite-3.0-8B-Base微調的80億參數模型,採用多種開源指令數據集和內部合成的數據集組合進行訓練。
大型語言模型 Transformers
G
ibm-granite
24.29k
201
Llama 3.2 3B Instruct Q8 0 GGUF
Llama 3.2是由Meta發佈的30億參數指令微調大語言模型,支持多語言文本生成任務
大型語言模型 支持多種語言
L
hugging-quants
26.89k
46
Llama 3.2 1B Instruct Q8 0 GGUF
這是Meta發佈的Llama 3.2系列中的10億參數指令微調模型,已轉換為GGUF格式便於在llama.cpp中使用
大型語言模型 支持多種語言
L
hugging-quants
64.04k
31
Gemma 2 2b Jpn It
Gemma 2 JPN是基於日語文本微調的Gemma 2 2B模型,具有出色的日語處理能力,適用於多種文本生成任務。
大型語言模型 Transformers 日語
G
google
7,510
183
Mistral Nemo Instruct 2407
Apache-2.0
Mistral-Nemo-Instruct-2407是基於Mistral-Nemo-Base-2407進行指令微調的大語言模型,由Mistral AI與NVIDIA聯合訓練,性能超越同規模或更小的現有模型。
大型語言模型 Transformers 支持多種語言
M
mistralai
149.79k
1,519
Aya 23 35B
Aya 23是一個經過指令微調的開放權重研究版本模型,具備高度先進的多語言能力,支持23種語言。
大型語言模型 Transformers 支持多種語言
A
CohereLabs
3,721
282
Llama 3 Wissenschaft 8B
其他
基於Llama-3-8b構建的多語言混合模型,融合了德語、意大利語和英語能力
大型語言模型 Transformers
L
nbeerbower
15
4
Llamantino 3 ANITA 8B Inst DPO ITA
LLaMAntino-3-ANITA是基於Meta Llama 3構建的多語言(英語+意大利語)大型語言模型,專為意大利語NLP任務優化。
大型語言模型 Transformers 支持多種語言
L
swap-uniba
6,401
25
Mixtral 8x22B Instruct V0.1
Apache-2.0
Mixtral-8x22B-Instruct-v0.1是基於Mixtral-8x22B-v0.1進行指令微調的大語言模型,支持多種語言和函數調用功能。
大型語言模型 Transformers 支持多種語言
M
mistralai
12.80k
723
Indic Gemma 2b Finetuned Sft Navarasa 2.0
其他
基於Gemma-2b微調的多語言指令模型,支持15種印度語言及英語
大型語言模型 Transformers 支持多種語言
I
Telugu-LLM-Labs
166
24
Calme 7B Instruct V0.2
Apache-2.0
Calme-7B是一款基於Mistral-7B微調的70億參數語言模型,擅長生成清晰、平和且連貫的文本。
大型語言模型 Transformers
C
MaziyarPanahi
15
14
Mistral 7B Instruct Aya 101
Apache-2.0
基於Mistral-7B-Instruct-v0.2微調的多語言指令跟隨模型,支持101種語言
大型語言模型 Transformers 支持多種語言
M
MaziyarPanahi
92
12
Aya 101
Apache-2.0
Aya 101 是一個支持101種語言指令的大規模多語言生成式語言模型,在各類評估中優於同類模型。
大型語言模型 Transformers 支持多種語言
A
CohereLabs
3,468
640
Mixtral 8x7B Instruct V0.1
Apache-2.0
Mixtral-8x7B是一個預訓練的生成式稀疏混合專家模型,在多數基準測試中表現優於Llama 2 70B。
大型語言模型 Transformers 支持多種語言
M
mistralai
505.97k
4,397
Falcon 7B Instruct GPTQ
Apache-2.0
Falcon-7B-Instruct的4位量化版本,使用AutoGPTQ工具進行量化,適用於資源受限環境下的高效推理。
大型語言模型 Transformers 英語
F
TheBloke
189
67
Flan T5 Xxl Sharded Fp16
Apache-2.0
FLAN-T5 XXL 是Google發佈的T5模型變體,在超過1000個額外任務上進行了微調,支持多種語言,性能優於原始T5模型。
大型語言模型 Transformers
F
philschmid
531
54
Flan T5 Xl
Apache-2.0
FLAN-T5 XL是基於T5架構的指令微調語言模型,在1000+任務上微調後,多語言和少樣本性能顯著提升。
大型語言模型 支持多種語言
F
google
257.40k
494
Flan T5 Base
Apache-2.0
FLAN-T5是基於T5模型通過指令微調優化的語言模型,支持多語言任務處理,在相同參數量下性能優於原T5模型。
大型語言模型 支持多種語言
F
google
3.3M
862
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase