Llama 3.2 1B Instruct FitnessAssistant
該模型是通過LoRA(低秩自適應)權重對Llama-3.2-1B-Instruct進行微調的版本,主要用於輔助回答各類主題問題並提供相關信息。
大型語言模型
Transformers

L
Soorya03
72
2
Doge 160M Instruct
Apache-2.0
Doge 160M 是一個基於動態掩碼注意力機制的小型語言模型,採用監督微調(SFT)和直接偏好優化(DPO)訓練而成。
大型語言模型
Transformers 英語

D
SmallDoge
2,223
12
Pythia 2.8b Deduped Synthetic Instruct
Apache-2.0
基於Pythia-2.8B去重版本微調的指令生成模型,針對合成指令數據集優化
大型語言模型
Transformers 英語

P
lambdalabs
46
6
Roberta Base Squad2
這是一個基於RoBERTa的抽取式問答模型,專門針對SQuAD 2.0數據集進行訓練,適用於英語問答任務。
問答系統
Transformers 英語

R
ydshieh
31
0
Bert Tiny Finetuned Squadv2
基於Google BERT-Tiny架構,在SQuAD2.0問答數據集上微調的小型問答模型,體積僅16.74MB
問答系統 英語
B
mrm8488
6,327
1
Bert Large Uncased Whole Word Masking Squad Int8 0001
基於全詞掩碼技術預訓練並在SQuAD v1.1上微調的BERT-large英文問答模型,量化至INT8精度
問答系統
Transformers

B
dkurt
23
0
T5 Large Squad Qg
基於T5-Large微調的問題生成模型,專為從SQuAD數據集生成問題而設計。
問答系統
Transformers 英語

T
lmqg
540
4
Bert Base Uncased Squadv1 X2.44 F87.7 D26 Hybrid Filled V1
MIT
基於BERT-base uncased模型在SQuAD v1上微調並通過nn_pruning庫修剪的問答模型,保留42%原始權重,推理速度提升2.44倍
問答系統
Transformers 英語

B
madlag
17
0
Bert Base Uncased Squadv1 X1.84 F88.7 D36 Hybrid Filled V1
MIT
這是一個通過nn_pruning庫剪枝優化的問答模型,保留了50%原始權重,在SQuAD v1上微調,F1值達88.72
問答系統
Transformers 英語

B
madlag
30
0
Bert Mini Finetuned Squadv2
BERT-Mini是由谷歌研究團隊開發的小型BERT模型,在SQuAD 2.0數據集上針對問答任務進行微調,適用於計算資源受限的環境。
問答系統 英語
B
mrm8488
50
0
Bert Base Uncased Squadv1 X2.01 F89.2 D30 Hybrid Rewind Opt V1
MIT
基於BERT-base uncased模型在SQuAD v1上微調的問答系統模型,通過nn_pruning庫進行剪枝優化,推理速度提升2.01倍,F1得分提升0.69。
問答系統
Transformers 英語

B
madlag
22
0
T5 Base Squad Qg Ae
基於T5-base微調的聯合問題生成與答案抽取模型,支持英語文本處理
問答系統
Transformers 英語

T
lmqg
56
0
Bert Base Uncased Squad1.1 Block Sparse 0.13 V1
MIT
這是一個基於BERT基礎無大小寫模型在SQuAD1.1數據集上微調的問答系統模型,採用塊稀疏結構,保留了原模型32.1%的權重。
問答系統
Transformers 英語

B
madlag
25
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98