Multilingual E5 Small Ko V2
Apache-2.0
基於intfloat/multilingual-e5-small微調的韓語句子轉換器,用於韓語檢索任務
文本嵌入 支持多種語言
M
dragonkue
252
2
Deepseek R1T Chimera
MIT
DeepSeek-R1T-Chimera 是一個結合了 DeepSeek-R1 智能和 DeepSeek-V3 令牌效率的開源權重模型。
大型語言模型
Transformers

D
tngtech
491
158
L3 GothicMaid Upscaled 11B
基於mergekit工具融合的8B參數語言模型,採用直通式(Passthrough)融合方法生成
大型語言模型
Transformers 英語

L
yamatazen
14
3
Cursa O1 7b V1.1
這是一個通過SLERP方法融合的預訓練語言模型,結合了pre-cursa-o1-v1.2和post-cursa-o1兩個模型的優勢。
大型語言模型
Transformers

C
marcuscedricridia
40
2
Qwen2.5 14B DeepSeek R1 1M
Apache-2.0
融合推理模型和長上下文模型優勢的多用途大語言模型
大型語言模型
Transformers

Q
mkurman
2,195
52
Llama3 Aloe 8B Alpha GGUF
蘆薈(Aloe)是一個全新的醫療大語言模型家族,通過模型融合和先進的提示策略,在同類型開源模型中極具競爭力。
大型語言模型
Transformers 英語

L
mav23
194
1
Biomistral MedMNX
BioMistral-MedMNX 是一個通過融合多個預訓練模型而創建的生物醫學領域專用語言模型,採用 DARE 和 TIES 融合方法優化性能。
大型語言模型
Transformers

B
BioMistral
3,509
4
Biomistral 7B SLERP
Apache-2.0
BioMistral-7B-slerp是通過SLERP方法合併BioMistral-7B和Mistral-7B-Instruct-v0.1的醫學領域語言模型,專注於生物醫學文本處理
大型語言模型
Transformers 支持多種語言

B
BioMistral
84
6
Sirius 10B
Apache-2.0
天狼星-10B是由TurdusBeagle-7B和Severus-7B兩個模型融合而成的大語言模型
大型語言模型
Transformers

S
FelixChao
83
1
Blockchainlabs 7B Merged Test2 4
blockchainlabs_7B_merged_test2_4 是通過 mergekit 工具融合 mlabonne/NeuralBeagle14-7B 和 udkai/Turdus 兩個模型而成的7B參數規模的大語言模型。
大型語言模型
Transformers

B
alnrg2arg
90
3
Catppt Base
Apache-2.0
CatPPT是一款通過Gradient SLERP方法融合openchat和neuralchat模型的高性能7B聊天模型,在排行榜上表現優異且無評估數據汙染。
大型語言模型
Transformers

C
rishiraj
1,286
48
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98