Galactic Qwen 14B Exp2
Apache-2.0
Galactic-Qwen-14B-Exp2 是基於 Qwen 2.5 14B 架構設計的大語言模型,專注於增強推理能力,擅長上下文理解、邏輯推理和多步驟問題解決。
大型語言模型
Transformers 支持多種語言

G
prithivMLmods
558
4
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-Exp是基於Qwen 2.5 14B架構設計的140億參數模型,旨在增強推理能力,適用於通用推理和問答任務。
大型語言模型
Transformers 支持多種語言

S
prithivMLmods
158
1
Lucie 7B Instruct V1.1
Apache-2.0
基於Lucie-7B微調的多語言因果語言模型,支持法語和英語,專注於指令跟隨和文本生成任務。
大型語言模型 支持多種語言
L
OpenLLM-France
13.33k
9
Qwen2.5 0.5b Test Ft
Apache-2.0
Qwen 2.5 0.5B 是一款緊湊而強大的語言模型,基於Qwen/Qwen2.5-0.5B-Instruct微調,支持多種語言,性能接近Llama 3.2 1B模型。
大型語言模型
Transformers 支持多種語言

Q
KingNish
1,004
11
Llama 3.1 Openhermes Tr
Apache-2.0
基於unsloth/llama-3-8b-bnb-4bit微調的土耳其語-英語雙語模型,使用Unsloth優化訓練速度
大型語言模型
Transformers 支持多種語言

L
umarigan
5,520
3
My Awesome Qa Model
Apache-2.0
基於bert-base-multilingual-cased在squad數據集上微調的問答模型
問答系統
Transformers

M
vnktrmnb
14
0
Multilingual Bert Finetuned Xquad
Apache-2.0
基於bert-base-multilingual-cased模型在xquad數據集上微調的多語言問答模型
問答系統
Transformers

M
ritwikm
24
0
Mdeberta V3 Base Squad2
MIT
基於mDeBERTa-v3-base的多語言問答模型,在SQuAD2.0數據集上進行了微調
問答系統
Transformers 支持多種語言

M
timpal0l
14.06k
246
Bert Base Multilingual Cased Sv2
Apache-2.0
基於bert-base-multilingual-cased在squad_v2數據集上微調的多語言問答模型
問答系統
Transformers

B
monakth
13
0
Xlm Roberta Large Xquad
基於XLM-RoBERTa-large的多語言問答模型,在XQuAD數據集上訓練,支持11種語言的抽取式問答任務。
問答系統
Transformers 其他

X
alon-albalak
45
2
Bert Base Multilingual Xquad
基於bert-base-multilingual-uncased的多語言問答模型,在XQuAD數據集上微調
問答系統
Transformers 其他

B
alon-albalak
24
0
Bert Base Multilingual Cased Finetuned Squad
這是一個基於多語言BERT模型在斯坦福問答數據集(SQuADv1.1)上微調的問答模型,支持多種語言的閱讀理解任務。
問答系統 其他
B
salti
28
14
Xlm Roberta Large Finetuned Squad V2
MIT
基於xlm-roberta-large模型在squad_v2數據集上微調的問答模型
問答系統
Transformers

X
sontn122
67
0
Bert Multi Cased Finetuned Xquadv1
基於Google BERT基礎多語言模型,在11種語言的問答數據集上微調,支持跨語言問答任務
問答系統 其他
B
mrm8488
1,100
5
Xlmroberta Squadv2
這是針對問答任務在SQuADv2數據集上微調的xlm-roberta-large模型
問答系統
Transformers

X
aware-ai
15
0
Xlm Roberta Qa Chaii
基於XLM-Roberta預訓練的多語言問答模型,支持英語、泰米爾語和印地語,針對印度語言問答場景優化
問答系統
Transformers 支持多種語言

X
gokulkarthik
14
0
Squad Mbart Model
基於未知數據集從頭開始訓練的mbart模型,具體用途和特性需進一步補充
問答系統
Transformers

S
ZYW
18
0
Xlm Roberta Large Qa Multilingual Finedtuned Ru
Apache-2.0
這是一個基於XLM-RoBERTa架構的預訓練模型,採用掩碼語言建模目標訓練,並在英語和俄語問答數據集上進行了微調。
問答系統
Transformers 支持多種語言

X
AlexKay
1,814
48
Mt5 Base Finetuned Tydiqa Xqa
該模型是基於谷歌mT5-base在TyDi QA數據集上微調的多語言問答模型,支持101種語言的問答任務。
問答系統
Transformers 其他

M
Narrativa
368
6
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98