Qwen3 Embedding 8B GGUF
Apache-2.0
Qwen3-Embedding-8B 是 Qwen 家族的最新專有模型,專為文本嵌入和排序任務設計,基於 Qwen3 系列的密集基礎模型構建,具有卓越的多語言能力和長文本理解能力。
文本嵌入
Q
Mungert
612
1
Qwen3 0.6B Base
Apache-2.0
Qwen3是通義千問系列最新一代6億參數大語言模型,支持32k上下文長度,覆蓋119種語言
大型語言模型
Transformers

Q
Qwen
58.85k
44
Qwen3 4B Base
Apache-2.0
Qwen3-4B-Base是通義千問系列最新一代40億參數大語言模型,基於36萬億token的多語言數據預訓練,支持32k上下文長度。
大型語言模型
Transformers

Q
Qwen
50.84k
29
Ultralong Thinking
通過SLERP方法合併的8B參數語言模型,結合了DeepSeek-R1和Nemotron-8B模型的優勢
大型語言模型
Transformers

U
mergekit-community
69
2
Modernbert Large Nli
Apache-2.0
基於ModernBERT-large的多任務微調模型,專注於自然語言推理(NLI)任務,在零樣本分類和推理任務中表現優異。
大型語言模型
Transformers 支持多種語言

M
p-christ
39
0
Lumimaid Magnum V4 12B
Lumimaid與Magnum v4合併的12B參數大語言模型,採用DELLA合併方法並加入針對Claude輸入優化的Nemo模型
大型語言模型
Transformers

L
Undi95
235
23
LLM2CLIP Openai L 14 224
Apache-2.0
LLM2CLIP是一種利用大型語言模型(LLM)釋放CLIP潛力的創新方法,通過對比學習框架提升文本判別性,突破原始CLIP文本編碼器的限制。
文本生成圖像
Safetensors
L
microsoft
108
5
LLM2CLIP Llama 3 8B Instruct CC Finetuned
Apache-2.0
LLM2CLIP是一種創新方法,通過大語言模型增強CLIP的跨模態能力,顯著提升視覺和文本表徵的判別力。
多模態融合
L
microsoft
18.16k
35
LLM2CLIP Openai B 16
Apache-2.0
LLM2CLIP是一種利用大語言模型(LLM)擴展CLIP能力的創新方法,通過對比學習框架提升文本判別性,顯著提升跨模態任務性能。
文本生成圖像
Safetensors
L
microsoft
1,154
18
LLM2CLIP EVA02 L 14 336
Apache-2.0
LLM2CLIP是一種創新方法,通過大語言模型(LLM)增強CLIP的視覺表徵能力,顯著提升跨模態任務性能
文本生成圖像
PyTorch
L
microsoft
75
60
Llama3 8B 1.58 100B Tokens
基於BitNet 1.58b架構微調的大型語言模型,基礎模型為Llama-3-8B-Instruct,採用極端量化技術
大型語言模型
Transformers

L
HF1BitLLM
2,427
181
Tess V2.5 Phi 3 Medium 128k 14B
MIT
基於Microsoft Phi-3-medium-128k-instruct微調的大語言模型,支持ChatML格式對話交互
大型語言模型
Transformers

T
migtissera
4,932
4
Yi 1.5 6B Chat
Apache-2.0
Yi-1.5是Yi模型的升級版本,在編程、數學、推理和指令遵循能力方面表現更出色,同時保持卓越的語言理解、常識推理和閱讀理解能力。
大型語言模型
Transformers

Y
01-ai
13.32k
42
Dolphin 2.7 Mixtral 8x7b AWQ
Apache-2.0
Dolphin 2.7 Mixtral 8X7B 是一個基於Mixtral架構的大型語言模型,專注於代碼生成和指令跟隨任務。
大型語言模型
Transformers 英語

D
TheBloke
5,839
22
Mistral 7B V0.1 Flashback V2
MIT
基於Mistral-7B-v0.1的預訓練延續模型,使用瑞典論壇Flashback的40GB文本數據進行微調,支持多語言生成。
大型語言模型
Transformers 支持多種語言

M
timpal0l
98
9
Bloomz 3b Nli
Openrail
基於Bloomz-3b-chat-dpo微調的自然語言推理模型,支持英法雙語語義關係判斷
大型語言模型
Transformers 支持多種語言

B
cmarkea
22
1
Yi 6B Chat
Apache-2.0
Yi-34B-Chat是由01.AI開發的雙語大語言模型,在語言理解、常識推理和閱讀理解方面表現優異,支持中英文交互。
大型語言模型
Transformers

Y
01-ai
36.75k
66
Cerbero 7b
Apache-2.0
首個完全免費開源的意大利大語言模型,基於mistral-7b構建,專為意大利語優化,性能超越Llama2 13B
大型語言模型
Transformers 支持多種語言

C
galatolo
5,722
15
Qwen 7B Chat GPTQ
阿里雲研發的70億參數規模大語言模型,基於Transformer架構,支持中英雙語和代碼處理,具備多輪對話能力。
大型語言模型
Transformers 支持多種語言

Q
openerotica
26
5
Baichuan 7B
百川-7B是由百川智能研發的開源大規模預訓練語言模型,基於Transformer架構,擁有70億參數,在中英雙語語料上訓練,支持4096長度的上下文窗口。
大型語言模型
Transformers 支持多種語言

B
baichuan-inc
20.47k
840
Manticore 13b
Manticore 13B是基於Llama 13B模型在多個高質量數據集上微調的大語言模型,擅長文本生成任務。
大型語言模型
Transformers 英語

M
openaccess-ai-collective
201
116
Xlm Roberta Large Squad2 Qa Milqa Impossible
該模型是基於milqa數據集對deepset/xlm-roberta-large-squad2進行微調的匈牙利語問答模型,支持處理無答案的情況。
問答系統
Transformers 其他

X
ZTamas
28
2
Bert Large Japanese Wikipedia Ud Head Finetuned Inquiry
基於日語Wikipedia數據預訓練的BERT-large模型,經過UD頭部解析任務微調
大型語言模型
Transformers

B
anhcanvasasia
33
0
Randeng T5 784M QA Chinese
首箇中文生成式問答預訓練T5模型,基於悟道180G語料預訓練並在中文SQuAD和CMRC2018數據集上微調
問答系統
Transformers 中文

R
IDEA-CCNL
166
32
Albert Chinese Large Qa
Apache-2.0
基於百度WebQA和百度DuReader數據集預訓練的Albert大型中文問答模型,適用於中文問答任務。
問答系統
Transformers 中文

A
wptoux
32
12
Biosyn Biobert Bc2gn
一個基於Transformer架構的大語言模型,支持中文和英文的文本理解和生成任務
大型語言模型
Transformers

B
dmis-lab
32
0
Biosyn Sapbert Bc2gn
這是一個多功能的大語言模型,能夠理解和生成自然語言文本
大型語言模型
Transformers

B
dmis-lab
857
1
Bart Large Finetuned Squad2
基於BART-large架構的問答系統模型,在SQuAD2.0數據集上微調完成,擅長從給定文本中提取答案
問答系統
Transformers 英語

B
phiyodr
83
3
Xlmroberta Squadv2
這是針對問答任務在SQuADv2數據集上微調的xlm-roberta-large模型
問答系統
Transformers

X
aware-ai
15
0
Electra Large Discriminator Squad2 512
這是一個基於ELECTRA架構的大規模判別器模型,專門針對問答任務在SQuAD2.0數據集上進行了微調,能夠處理有答案和無答案的問答場景。
問答系統
Transformers

E
ahotrod
8,925
6
Albert Gpt2 Full Summarization Cnndm
基於ALBERT和GPT2架構的新聞摘要生成模型,在CNN/DailyMail數據集上微調
文本生成
Transformers

A
Ayham
15
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98