# 多源數據融合

EVA Qwen2.5 14B V0.2
Apache-2.0
一款專注於角色扮演/故事寫作的專家模型,基於Qwen2.5-14B進行全參數微調,融合了合成與自然數據。
大型語言模型 Transformers
E
EVA-UNIT-01
287
24
EVA Qwen2.5 32B V0.2
Apache-2.0
一款專注於角色扮演/故事寫作的專家模型,基於Qwen2.5-32B進行全參數微調,融合了合成與自然數據。
大型語言模型 Transformers
E
EVA-UNIT-01
625
53
Lumimaid V0.2 70B
Lumimaid 0.2是基於Meta-Llama-3.1-70B-Instruct的模型,在數據集方面相較於0.1版本有了巨大的提升,經過數據清理和優化,提供更優質的使用體驗。
大型語言模型 Transformers
L
NeverSleep
173
43
Llama 3 OffsetBias RM 8B
基於OffsetBias數據集訓練的獎勵模型,針對評估模型中的偏差具有更強魯棒性
大型語言模型 Transformers 英語
L
NCSOFT
1,782
23
Loyal Toppy Bruins Maid 7B DARE
一個7B參數規模的模型,專為角色扮演(RP)設計,嚴格遵循角色卡片併兼具智能表現。
大型語言模型 Transformers
L
SanjiWatsuki
96
13
All Datasets V3 MiniLM L12
基於MiniLM-L12架構的句子嵌入模型,通過對比學習在超10億句對數據集上訓練,可生成高質量的語義向量表示
文本嵌入 英語
A
flax-sentence-embeddings
887
1
All Datasets V4 Mpnet Base
基於mpnet-base的句子嵌入模型,通過自監督對比學習在10億句對數據集上訓練,可生成高質量的句子語義向量表示
文本嵌入 英語
A
flax-sentence-embeddings
131
6
All Datasets V4 MiniLM L12
基於MiniLM-L12模型,通過自監督對比學習在超10億句對數據集上微調的句子嵌入模型,可生成高質量的語義向量表示
文本嵌入 英語
A
flax-sentence-embeddings
2,084
2
All Datasets V3 MiniLM L6
基於MiniLM架構的句子嵌入模型,通過自監督對比學習在超10億句對數據集上訓練,可生成高質量的句子向量表示
文本嵌入 英語
A
flax-sentence-embeddings
46
0
All Datasets V3 Roberta Large
基於RoBERTa-large的句子嵌入模型,通過自監督對比學習在10億句對數據集上訓練,用於生成語義豐富的句子向量表示
文本嵌入 英語
A
flax-sentence-embeddings
987
13
Roberta Tagalog Base
這是一個針對他加祿語(Tagalog)的預訓練語言模型,基於多源數據進行訓練,旨在提升他加祿語自然語言處理任務的性能。
大型語言模型 Transformers
R
GKLMIP
23
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase