Resume Match Ml
基於sentence-transformers的句子相似度計算模型,用於評估文本間的語義相似度
文本嵌入
R
joeportnoy
8,616
1
Nousresearch.hermes 3 Llama 3.1 405B GGUF
Hermes-3-Llama-3.1-405B是一個基於Llama架構的大型語言模型,專注於文本生成任務。
大型語言模型
N
DevQuasar
1,562
1
Paxinium
這是一個使用mergekit工具合併的12B參數規模的大語言模型,融合了多個優秀模型的特性。
大型語言模型
Transformers

P
DreadPoor
28
1
Deepseek R1T Chimera
MIT
DeepSeek-R1T-Chimera 是一個結合了 DeepSeek-R1 智能和 DeepSeek-V3 令牌效率的開源權重模型。
大型語言模型
Transformers

D
tngtech
491
158
XYZ Embedding Zh
XYZ-embedding-zh 是一個基於 sentence-transformers 的中文嵌入模型,能夠將句子和段落映射到1792維的密集向量空間,適用於聚類和語義搜索等任務。
文本嵌入
X
fangxq
22
2
Multi2convai Quality En Bert
MIT
這是一個基於BERT架構、針對英語質量領域文本分類任務進行微調的模型,屬於Multi2ConvAI項目的一部分。
文本分類
Transformers 英語

M
inovex
116
0
PEG
PEG是一種通過漸進式學習實現穩健文本檢索的模型,基於負樣本的難度級別調整損失權重。
文本嵌入
Transformers 中文

P
TownsWu
36
29
Ruri V3 Reranker 310m
Apache-2.0
基於ModernBERT-Ja構建的日語通用重排序模型,具有頂尖性能表現和長序列處理能力
文本嵌入 日語
R
cl-nagoya
1,100
5
Modernbert Base Tr Uncased
MIT
基於ModernBERT架構的土耳其語預訓練模型,支持8192上下文長度,在多個領域表現優異
大型語言模型
Transformers 其他

M
artiwise-ai
159
9
Beaverai MN 2407 DSK QwQify V0.1 12B GGUF
Apache-2.0
基於12B參數的大語言模型,支持文本生成任務,採用Apache-2.0許可證發佈。
大型語言模型
B
bartowski
1,547
5
Buddyglassuncensored2025.4
這是一個基於 Mistral-Small-24B-Instruct-2501 的融合模型,採用了 DARE TIES 融合方法,整合了多個 24B 參數規模的模型。
大型語言模型
Transformers

B
darkc0de
52
4
Whisper Small Turkish 0
Apache-2.0
基於OpenAI Whisper-small微調的土耳其語語音識別模型
語音識別
Transformers 其他

W
ysdede
14
1
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一個基於 Llama 架構的 8B 參數規模的大型語言模型,經過蒸餾訓練優化,適用於文本生成任務。
大型語言模型
D
DevQuasar
320
3
German RAG WHISPER LARGE V3 TURBO HESSIAN AI
MIT
基於Whisper Large v3 Turbo優化的德語語音識別模型,在13小時精選數據集上微調,顯著提升德語識別準確率
語音識別
Transformers 德語

G
avemio
282
1
Chuxin Embedding Q4 K M GGUF
這是一個從Chuxin-Embedding轉換而來的GGUF格式模型,主要用於中文文本檢索任務。
文本嵌入 中文
C
lagoon999
14
1
Whisper Large V3 Lv Late Cv19
Apache-2.0
基於whisper-large-v3微調的拉脫維亞語自動語音識別模型,由AiLab.lv訓練,支持拉脫維亞語語音轉文本任務。
語音識別 其他
W
AiLab-IMCS-UL
162
1
Parakeet Tdt Ctc 110m
由NVIDIA NeMo和Suno.ai聯合開發的英語語音識別模型,支持標點符號和大小寫轉換,採用FastConformer-TDT-CTC架構
語音識別 英語
P
nvidia
50.47k
28
Exaone3 Instructrans V2 Enko 7.8b
基於exaone-3-7.8B-it訓練的英韓翻譯模型,專注於指令數據集的翻譯任務
機器翻譯
Transformers 支持多種語言

E
Translation-EnKo
45
7
Swahili English Translation
MIT
專為斯瓦希里語與英語雙向翻譯開發的Transformer模型,基於21萬條語料對微調訓練
機器翻譯
Transformers

S
Bildad
98
2
Llama 3.1 PersianQA
Apache-2.0
基於Llama3微調的波斯語問答專用版本,能夠根據上下文準確回答波斯語問題
問答系統 支持多種語言
L
zpm
474
6
Ltgbert 100m 2024
MIT
該項目是一個遵循MIT許可的開源項目,具有一定的開源價值。
大型語言模型
Transformers

L
babylm
7,150
1
Faster Whisper Large V3 Ru Podlodka
Apache-2.0
這是 bond005/whisper-large-v3-ru-podlodka 的 ctranslate2 轉換版本,針對俄語語音識別任務進行了優化。
語音識別
Transformers 其他

F
bzikst
23
1
Phi 3 HornyVision 128k Instruct
MIT
基於MIT許可證的開源模型,具體功能需根據實際模型確定
大型語言模型
Transformers

P
Desm0nt
31
27
Turkish Llama 8b V0.1 GGUF
Turkish-Llama-8b-v0.1是基於LLaMA-3 8B模型完全微調的土耳其語文本生成模型,使用了30GB土耳其語數據集訓練。
大型語言模型 其他
T
LiteLLMs
108
2
Llama3 Instructrans Enko 8b
基於Llama-3-8B-it訓練的英韓翻譯模型,專門用於英語指令數據集的翻譯
機器翻譯
Transformers 支持多種語言

L
nayohan
84
27
Chocollama 2 7B Base
基於Meta Llama-2-7b進行荷蘭語適配的版本,通過LoRa技術使用32B荷蘭語Llama-2 tokens微調而成的基礎模型
大型語言模型
Transformers 其他

C
ChocoLlama
26
2
Intent Classifier
基於Flan-T5-Base微調的意圖分類模型,用於將客戶問題歸類到預定義類別
文本分類
Transformers

I
Serj
364
4
Retnet 1.3B 100B
MIT
基於SlimPajama-627B數據集訓練的文本生成模型,採用視網膜網絡架構。
大型語言模型 支持多種語言
R
fla-hub
57
1
Sage Fredt5 Distilled 95m
MIT
基於FRED-T5-1.7B架構的蒸餾模型,用於俄語拼寫、標點及大小寫錯誤的自動校正
文本生成
Transformers 其他

S
ai-forever
1,553
14
Sage Fredt5 Large
MIT
基於FRED-T5-large訓練的俄語拼寫檢查模型,可糾正拼寫、標點和大小寫錯誤
文本生成
Transformers 其他

S
ai-forever
189
14
Tinyllama V1.1 Math Code
Apache-2.0
TinyLlama是一個11億參數的緊湊型語言模型,採用與Llama 2相同的架構和分詞器,適用於計算和內存資源有限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
3,436
11
Tinyllama V1.1
Apache-2.0
TinyLlama是一個11億參數的小型語言模型,採用與Llama 2相同的架構和分詞器,適用於資源受限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
42.11k
92
Opensearch Neural Sparse Encoding V1
Apache-2.0
OpenSearch神經稀疏編碼模型v1,用於將查詢和文檔編碼為30522維稀疏向量,實現高效的搜索相關性和檢索
文本嵌入
Transformers 英語

O
opensearch-project
10.20k
11
Parakeet Tdt 1.1b
Parakeet TDT 1.1B是由NVIDIA NeMo和Suno.ai聯合開發的自動語音識別(ASR)模型,能夠將語音轉錄為小寫英文字母。
語音識別 英語
P
nvidia
12.27k
90
SFR Embedding Mistral
由Salesforce Research研發的文本嵌入模型,基於E5-mistral-7b-instruct和Mistral-7B-v0.1訓練,主要用於文本檢索任務。
文本嵌入
Transformers 英語

S
Salesforce
34.75k
277
Bce Embedding Base V1
Apache-2.0
BCEmbedding是網易有道研發的雙語跨語言嵌入模型庫,包含EmbeddingModel(語義向量生成)和RerankerModel(結果精排)兩類模型。作為有道檢索增強生成(RAG)系統的核心組件,已成功應用於開源項目QAnything及有道速讀、有道翻譯等產品。
文本嵌入
Transformers 支持多種語言

B
maidalun1020
69.82k
375
Bce Reranker Base V1
Apache-2.0
面向RAG優化的雙語與跨語言重排序模型,支持中英日韓四語種,提供可解釋的絕對分數
文本嵌入
Transformers 支持多種語言

B
maidalun1020
68.29k
190
Parakeet Ctc 0.6b
Parakeet CTC 0.6B是由NVIDIA NeMo和Suno.ai聯合開發的自動語音識別模型,基於FastConformer架構,擁有約6億參數,支持英語語音轉錄。
語音識別 英語
P
nvidia
6,528
13
Parakeet Rnnt 0.6b
Parakeet RNNT 0.6B 是由 NVIDIA NeMo 和 Suno.ai 聯合開發的自動語音識別模型,基於 FastConformer 架構,擁有約 6 億參數,專門用於將英語語音轉錄為文本。
語音識別 英語
P
nvidia
92.27k
8
Parakeet Ctc 1.1b
Parakeet CTC 1.1B是由NVIDIA NeMo和Suno.ai聯合開發的自動語音識別模型,基於FastConformer架構,擁有約11億參數,支持英語語音轉錄。
語音識別 英語
P
nvidia
14.78k
29
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98