# 多語言問答

Galactic Qwen 14B Exp2
Apache-2.0
Galactic-Qwen-14B-Exp2 是基於 Qwen 2.5 14B 架構設計的大語言模型,專注於增強推理能力,擅長上下文理解、邏輯推理和多步驟問題解決。
大型語言模型 Transformers 支持多種語言
G
prithivMLmods
558
4
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-Exp是基於Qwen 2.5 14B架構設計的140億參數模型,旨在增強推理能力,適用於通用推理和問答任務。
大型語言模型 Transformers 支持多種語言
S
prithivMLmods
158
1
Lucie 7B Instruct V1.1
Apache-2.0
基於Lucie-7B微調的多語言因果語言模型,支持法語和英語,專注於指令跟隨和文本生成任務。
大型語言模型 支持多種語言
L
OpenLLM-France
13.33k
9
Qwen2.5 0.5b Test Ft
Apache-2.0
Qwen 2.5 0.5B 是一款緊湊而強大的語言模型,基於Qwen/Qwen2.5-0.5B-Instruct微調,支持多種語言,性能接近Llama 3.2 1B模型。
大型語言模型 Transformers 支持多種語言
Q
KingNish
1,004
11
Llama 3.1 Openhermes Tr
Apache-2.0
基於unsloth/llama-3-8b-bnb-4bit微調的土耳其語-英語雙語模型,使用Unsloth優化訓練速度
大型語言模型 Transformers 支持多種語言
L
umarigan
5,520
3
My Awesome Qa Model
Apache-2.0
基於bert-base-multilingual-cased在squad數據集上微調的問答模型
問答系統 Transformers
M
vnktrmnb
14
0
Multilingual Bert Finetuned Xquad
Apache-2.0
基於bert-base-multilingual-cased模型在xquad數據集上微調的多語言問答模型
問答系統 Transformers
M
ritwikm
24
0
Mdeberta V3 Base Squad2
MIT
基於mDeBERTa-v3-base的多語言問答模型,在SQuAD2.0數據集上進行了微調
問答系統 Transformers 支持多種語言
M
timpal0l
14.06k
246
Bert Base Multilingual Cased Sv2
Apache-2.0
基於bert-base-multilingual-cased在squad_v2數據集上微調的多語言問答模型
問答系統 Transformers
B
monakth
13
0
Xlm Roberta Large Xquad
基於XLM-RoBERTa-large的多語言問答模型,在XQuAD數據集上訓練,支持11種語言的抽取式問答任務。
問答系統 Transformers 其他
X
alon-albalak
45
2
Bert Base Multilingual Xquad
基於bert-base-multilingual-uncased的多語言問答模型,在XQuAD數據集上微調
問答系統 Transformers 其他
B
alon-albalak
24
0
Bert Base Multilingual Cased Finetuned Squad
這是一個基於多語言BERT模型在斯坦福問答數據集(SQuADv1.1)上微調的問答模型,支持多種語言的閱讀理解任務。
問答系統 其他
B
salti
28
14
Xlm Roberta Large Finetuned Squad V2
MIT
基於xlm-roberta-large模型在squad_v2數據集上微調的問答模型
問答系統 Transformers
X
sontn122
67
0
Bert Multi Cased Finetuned Xquadv1
基於Google BERT基礎多語言模型,在11種語言的問答數據集上微調,支持跨語言問答任務
問答系統 其他
B
mrm8488
1,100
5
Xlmroberta Squadv2
這是針對問答任務在SQuADv2數據集上微調的xlm-roberta-large模型
問答系統 Transformers
X
aware-ai
15
0
Xlm Roberta Qa Chaii
基於XLM-Roberta預訓練的多語言問答模型,支持英語、泰米爾語和印地語,針對印度語言問答場景優化
問答系統 Transformers 支持多種語言
X
gokulkarthik
14
0
Squad Mbart Model
基於未知數據集從頭開始訓練的mbart模型,具體用途和特性需進一步補充
問答系統 Transformers
S
ZYW
18
0
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
這是一個基於XLM-RoBERTa架構的預訓練模型,採用掩碼語言建模目標訓練,並在英語和俄語問答數據集上進行了微調。
問答系統 Transformers 支持多種語言
X
AlexKay
1,814
48
Mt5 Base Finetuned Tydiqa Xqa
該模型是基於谷歌mT5-base在TyDi QA數據集上微調的多語言問答模型,支持101種語言的問答任務。
問答系統 Transformers 其他
M
Narrativa
368
6
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase