# 多任務適配

Clip Vitl14 Test Time Registers
MIT
基於OpenCLIP-ViT-L-14模型,引入測試時寄存器技術,提升模型可解釋性和下游任務性能
文本生成圖像 Transformers
C
amildravid4292
236
0
Deepseek Ai DeepSeek R1 Distill Qwen 14B GGUF
DeepSeek-R1-Distill-Qwen-14B 是一個經過優化的14B參數規模的大語言模型,由DeepSeek AI發佈,基於Qwen架構蒸餾而來,提供多種GGUF量化版本以提升性能。
大型語言模型
D
featherless-ai-quants
237
1
MT Gen1 Gemma 3 12B
這是一個使用mergekit工具合併的預訓練語言模型,採用DARE TIES方法融合了多個Gemma3-12B變體模型。
大型語言模型 Transformers
M
zelk12
118
3
Fin Mpnet Base
這是一個經過微調的sentence-transformers模型,專為金融文檔檢索任務優化,同時保持通用性能。
文本嵌入 其他
F
mukaj
131.16k
7
Magnamellrei V1 12B
Apache-2.0
MagnaMellRei-v1-12B是通過mergekit工具使用SLERP方法合併的兩個12B參數模型得到的混合模型
大型語言模型 Transformers
M
grimjim
17
3
Gemma 3 27b Half Full
Gemma 3 27B 合併模型是通過線性合併法融合了預訓練模型和指令調優模型的大語言模型
大型語言模型 Transformers
G
Columbidae
16
1
Orpheus Cml FR
基於canopylabs/orpheus-3b-0.1-pretrained微調的法語文本生成模型
大型語言模型 Transformers 法語
O
kadirnar
24
2
EXAONE 3.5 2.4B Fine Tuning
Hugging Face提供的Transformer模型庫,支持多種自然語言處理任務
大型語言模型 Transformers
E
good593
65
2
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五代模型,整合了多個先進模型的特點,優化了模型合併公式,支持100萬token上下文。
大型語言模型 Safetensors 支持多種語言
Q
YOYO-AI
33
3
Thor V2.5 8b FANTASY FICTION 128K Q4 K M GGUF
這是一個基於GGUF格式轉換的8B參數規模的幻想小說專用語言模型,支持128K上下文長度。
大型語言模型 英語
T
MrRobotoAI
22
0
Qwq 32B Preview Pruned
未提供具體模型信息,可能是一個通用的transformers庫模型
大型語言模型 Transformers
Q
LordNoah
110
2
Modernbert Base Zeroshot V2.0
Apache-2.0
基於ModernBERT-base微調的零樣本分類器,高效快速且內存佔用低,適用於多種文本分類任務。
文本分類 Transformers
M
MoritzLaurer
261
17
Modernbert Large Zeroshot V2.0
Apache-2.0
基於ModernBERT-large微調的零樣本分類器,高效快速且內存佔用低,適用於多種文本分類任務。
大型語言模型 Transformers
M
MoritzLaurer
25.66k
47
Doge 20M Instruct
Apache-2.0
Doge 20M 是一個基於動態掩碼注意力機制的小型語言模型,支持指令跟隨和問答任務。
大型語言模型 Transformers 英語
D
SmallDoge
5,010
4
Ruri Large V2
Apache-2.0
Ruri是一個日語通用文本嵌入模型,專注於句子相似度計算和特徵提取,支持長文本處理。
文本嵌入 日語
R
cl-nagoya
3,672
9
Esmplusplus Large
ESM++是對ESMC的忠實實現,支持批處理操作且完全兼容Huggingface生態,無需依賴ESM官方Python包。large版本對應ESMC的6億參數模型。
蛋白質模型 Transformers
E
Synthyra
8,314
9
Cydonia V1.3 Magnum V4 22B
其他
這是一個基於Cydonia-22B-v1.3和Magnum-v4-22B合併的22B參數語言模型,使用SLERP方法融合
大型語言模型 Transformers
C
knifeayumu
822
41
Conan Embedding V1 Q4 K M GGUF
Conan-embedding-v1是由騰訊BAC團隊開發的中文文本嵌入模型,基於sentence-transformers庫實現,適用於多種中文自然語言處理任務。
文本嵌入
C
lagoon999
30
7
Maux Gte Persian
這是一個從阿里巴巴NLP/gte-multilingual-base微調的sentence-transformers模型,專門用於處理波斯語的語義文本任務。
文本嵌入 其他
M
xmanii
662
5
Dinov2.large.patch 14.reg 4
Apache-2.0
DINOv2是一個基於視覺變換器的圖像特徵提取模型,通過引入寄存器機制提升了特徵提取能力。
D
refiners
15
0
Gemma 2 9b It SimPO
MIT
基於SimPO目標在gemma2-ultrafeedback-armorm數據集上微調的Gemma 2.9B模型,用於偏好優化任務
大型語言模型 Transformers
G
princeton-nlp
21.34k
164
Pickscore V2
MIT
該模型基於MIT許可證發佈,具體信息暫不可知。
大型語言模型 Transformers
P
hcaoaf
28
2
Biomed Right
基於Transformers庫的零樣本分類模型,能夠在沒有特定任務訓練數據的情況下進行分類任務。
文本分類 Transformers
B
gritli
15
0
Labse Ru Turbo
MIT
用於計算俄語句子嵌入的BERT模型,基於cointegrated/LaBSE-en-ru開發,優化了俄語處理性能
文本嵌入 Transformers 其他
L
sergeyzh
3,987
15
Tybert
Apache-2.0
由Trendyol預訓練的土耳其語Bert模型,適用於多種自然語言理解任務。
大型語言模型 Transformers 其他
T
Trendyol
54
6
Safety Helmet Detection
MIT
基於 MIT 許可證的開源模型,具體功能和用途需參考完整文檔
大型語言模型 Transformers
S
gghsgn
20
0
Xlm Roberta Large Xnli
基於Transformers.js的法語零樣本分類模型,支持對法語文本進行多類別分類而無需特定訓練
Transformers 法語
X
xavierbarbier
16
1
Xfinder Llama38it
xFinder-llama38it 是基於 Llama3-8B-Instruct 微調的關鍵答案提取模型,旨在提高大型語言模型輸出的關鍵答案提取準確性和魯棒性。
大型語言模型 Transformers 英語
X
IAAR-Shanghai
189
5
Llama 3 6B V0.1
全球首個60億參數的Llama-3基礎模型,通過降級循環技術從Meta-Llama-3-8B創建,並在10億英文文本標記上進行了持續預訓練
大型語言模型 Transformers 英語
L
prince-canuma
14
14
Meowgpt 3.5 11B
MeowGPT-3.5是基於GPT-3.5架構的合併模型,專注於文本生成任務。
大型語言模型 Transformers
M
Chickaboo
16
1
Sentence Transformers Multilingual E5 Small
MIT
multilingual-e5-small 是一個在多語言文本處理任務中表現出色的模型,支持分類、檢索、聚類、重排序、語義文本相似度等多種任務。
文本嵌入 支持多種語言
S
beademiguelperez
3,922
1
Eris LelantaclesV2 7b
該模型是通過SLERP方法合併Eros-7b-test和Eris-Lelanacles-7b兩個7B參數模型得到的混合模型
大型語言模型 Transformers
E
ChaoticNeutrals
22
4
Roberta Large InBedder
MIT
InBedder是一款專為遵循指令而設計的文本嵌入器,能夠通過回答問題的方式捕捉用戶指令指定的文本特徵。
文本嵌入 Transformers 英語
R
BrandonZYW
17
2
Curie 7B V1
Apache-2.0
Curie-7B-v1是一個通過微調英語大語言模型(LLMs)用於波蘭語文本生成的模型,在波蘭語文本生成和多項NLP任務中表現出色。
大型語言模型 Transformers 其他
C
szymonrucinski
26
5
Xtremedistil L6 H256 Zeroshot V1.1 All 33
MIT
這是一個超小體積、高效能的零樣本分類模型,專為邊緣設備和瀏覽器應用設計。
文本分類 Transformers 英語
X
MoritzLaurer
593
6
Llama 2 7b Chat Med
Apache-2.0
這是一個基於Apache-2.0許可證發佈的模型,具體信息暫不可用。
大型語言模型 Transformers
L
darwin2025
29
1
Deepsex 6b Chat
Apache-2.0
大型語言模型 Transformers
D
TriadParty
77
3
Chinese Porn Novel
Apache-2.0
該模型是一個基於Apache-2.0許可證的開源人工智能模型,具體功能需根據實際模型類型確定
大型語言模型 Transformers
C
qgyd2021
199
9
Chkpt E10S441L10 20 139 3060
MIT
該模型基於MIT許可證發佈,具體信息暫不可知。
大型語言模型 Transformers
C
sarthakmp
16
0
Unichart Opencqa 960
Gpl-3.0
一個基於GPL-3.0許可證發佈的開源模型,具體功能和應用領域需進一步確認
大型語言模型 Transformers
U
ahmed-masry
46
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase