Bamba 9B V2
Apache-2.0
Bamba-9B-v2 是基於 Mamba-2 架構構建的僅解碼器語言模型,專注於文本生成任務,性能優於 Llama 3.1 8B。
大型語言模型
Transformers

B
ibm-ai-platform
3,634
15
Reasoning TIES Coder V1.1
Apache-2.0
這是一個使用TIES方法合併的32B參數規模的大語言模型,基於Rombo-LLM-V3.1-QWQ-32b基礎模型融合了多個FuseAI預覽模型
大型語言模型
Transformers

R
BenevolenceMessiah
74
2
Unhinged Author 70B
基於TIES方法合併的70B參數大語言模型,以Steelskull/L3.3-MS-Nevoria-70b為基礎模型融合了DeepSeek-R1-Distill-Llama-70B模型
大型語言模型
Transformers

U
FiditeNemini
44
3
Calme 3.2 Instruct 78b
其他
calme-3.2-instruct-78b是基於Qwen2.5-72B的高級迭代版本,通過自我合併和微調增強能力的通用領域大語言模型。
大型語言模型
Transformers 英語

C
MaziyarPanahi
2,212
127
Deberta V3 Base Zeroshot V2.0
MIT
基於DeBERTa-v3-base架構的零樣本分類模型,專為無需訓練數據的文本分類任務設計
文本分類
Transformers 英語

D
MoritzLaurer
7,845
8
Deberta V3 Base Zeroshot V2.0 C
MIT
基於DeBERTa-v3-base的零樣本分類模型,專為無需訓練數據的分類任務設計,使用商業友好數據訓練
文本分類
Transformers 英語

D
MoritzLaurer
504
0
Yamshadowexperiment28 7B
Apache-2.0
截至2024年4月8日,山影實驗28號-7B是Open LLM排行榜上性能最佳的7B參數模型。使用時需謹慎,這可能是對基準測試過擬合的信號。
大型語言模型
Transformers

Y
automerger
101
24
UNA TheBeagle 7b V1
TheBeagle是基於The Bagel數據集訓練的70億參數模型,採用DPO(直接偏好優化)和UNA(統一神經架構)技術優化,在多任務中表現優異。
大型語言模型
Transformers

U
fblgit
88
37
Tinyllama 1.1B Intermediate Step 1195k Token 2.5T
Apache-2.0
TinyLlama是一個1.1B參數的小型Llama模型,在3萬億token上預訓練,設計用於資源有限的環境。
大型語言模型
Transformers 英語

T
TinyLlama
419
52
Deberta V3 Base Zeroshot V1.1 All 33
MIT
基於DeBERTa-v3的零樣本分類模型,支持33個數據集和387個類別的通用文本分類任務
文本分類
Transformers 英語

D
MoritzLaurer
7,152
28
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98