# 多任務通用

Bamba 9B V2
Apache-2.0
Bamba-9B-v2 是基於 Mamba-2 架構構建的僅解碼器語言模型,專注於文本生成任務,性能優於 Llama 3.1 8B。
大型語言模型 Transformers
B
ibm-ai-platform
3,634
15
Reasoning TIES Coder V1.1
Apache-2.0
這是一個使用TIES方法合併的32B參數規模的大語言模型,基於Rombo-LLM-V3.1-QWQ-32b基礎模型融合了多個FuseAI預覽模型
大型語言模型 Transformers
R
BenevolenceMessiah
74
2
Unhinged Author 70B
基於TIES方法合併的70B參數大語言模型,以Steelskull/L3.3-MS-Nevoria-70b為基礎模型融合了DeepSeek-R1-Distill-Llama-70B模型
大型語言模型 Transformers
U
FiditeNemini
44
3
Calme 3.2 Instruct 78b
其他
calme-3.2-instruct-78b是基於Qwen2.5-72B的高級迭代版本,通過自我合併和微調增強能力的通用領域大語言模型。
大型語言模型 Transformers 英語
C
MaziyarPanahi
2,212
127
Deberta V3 Base Zeroshot V2.0
MIT
基於DeBERTa-v3-base架構的零樣本分類模型,專為無需訓練數據的文本分類任務設計
文本分類 Transformers 英語
D
MoritzLaurer
7,845
8
Deberta V3 Base Zeroshot V2.0 C
MIT
基於DeBERTa-v3-base的零樣本分類模型,專為無需訓練數據的分類任務設計,使用商業友好數據訓練
文本分類 Transformers 英語
D
MoritzLaurer
504
0
Yamshadowexperiment28 7B
Apache-2.0
截至2024年4月8日,山影實驗28號-7B是Open LLM排行榜上性能最佳的7B參數模型。使用時需謹慎,這可能是對基準測試過擬合的信號。
大型語言模型 Transformers
Y
automerger
101
24
UNA TheBeagle 7b V1
TheBeagle是基於The Bagel數據集訓練的70億參數模型,採用DPO(直接偏好優化)和UNA(統一神經架構)技術優化,在多任務中表現優異。
大型語言模型 Transformers
U
fblgit
88
37
Tinyllama 1.1B Intermediate Step 1195k Token 2.5T
Apache-2.0
TinyLlama是一個1.1B參數的小型Llama模型,在3萬億token上預訓練,設計用於資源有限的環境。
大型語言模型 Transformers 英語
T
TinyLlama
419
52
Deberta V3 Base Zeroshot V1.1 All 33
MIT
基於DeBERTa-v3的零樣本分類模型,支持33個數據集和387個類別的通用文本分類任務
文本分類 Transformers 英語
D
MoritzLaurer
7,152
28
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase