Qwen2.5 VL 7B Instruct Q8 0 GGUF
Apache-2.0
該模型是基於Qwen2.5-VL-7B-Instruct轉換的GGUF格式模型,支持多模態任務,適用於圖像和文本的交互處理。
文本生成圖像 英語
Q
cxtb
72
1
Merlinite 7b Lab
Apache-2.0
魔靈石 7B是基於Mistral-7B-v0.1開發的語言模型,採用IBM研究的LAB對齊方法訓練,在多個基準測試中表現優異。
大型語言模型
Transformers

M
instructlab
285
22
7B
一個7B參數的因果語言模型,兼容Meta LLaMA 2架構,在多項評估中表現優於同類33B以下模型
大型語言模型
Transformers 支持多種語言

7
CausalLM
177
135
Questionanswering V7
Apache-2.0
這是一個基於SQuAD數據集訓練的問答系統模型,能夠回答基於給定文本的問題。
問答系統
Transformers 英語

Q
abdalrahmanshahrour
14
1
Bert Finetuned On Nq Short
一個在完整Natural Questions(NQ)數據集上訓練的開放領域問答模型,能夠回答各種事實性問題
大型語言模型
Transformers

B
eibakke
13
1
Question Answering Roberta Base S V2
Apache-2.0
基於RoBERTa的問答模型,專用於在給定問題和上下文的情況下推斷答案文本、範圍及置信度分數。
問答系統
Transformers

Q
consciousAI
1,832
10
Deberta V3 Large Squad2
MIT
基於DeBERTa-v3-large架構的問答模型,在SQuAD 2.0數據集上微調,支持處理可回答和不可回答的問題。
問答系統
Transformers 英語

D
navteca
35
0
Roberta Base Cuad Finetuned
專為合同理解阿提卡斯數據集(CUAD)問答任務優化的RoBERTa模型,在法律合同審查任務中表現優異
問答系統
Transformers 英語

R
gustavhartz
387
1
Roberta Base Finetuned Squad 2
MIT
基於RoBERTa-base模型在SQuAD數據集上微調的問答模型
問答系統
Transformers

R
huxxx657
15
0
Canine C Squad
CANINE-C 是谷歌開發的基於字符的預訓練Transformer模型,專門用於處理長文本序列的問答任務。
問答系統
Transformers

C
Splend1dchan
68
0
Bart Large Squad Qg
這是一個基於BART-large架構的問題生成模型,專門針對SQuAD數據集進行微調,能夠從給定的文本中生成相關問題。
問答系統
Transformers 英語

B
lmqg
84
0
Bert Base Uncased Squad2
基於BERT基礎無大小寫版本在SQuAD v2數據集上微調的問答模型
問答系統
B
twmkn9
50
2
Albert Xxlarge V2 Squad2 Covid Qa Deepset
該模型是基於ALBERT-xxlarge-v2架構,在SQuAD2.0和COVID-QA數據集上微調的問答模型
問答系統
Transformers

A
armageddon
19
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98