Gemma 3n E4B
Gemma 3n是谷歌推出的輕量級多模態模型,基於Transformer架構,支持文本、音頻和視覺(圖像和視頻)輸入,適用於低資源設備。
圖像生成文本
Transformers

G
google
131
16
Phi 4 Reasoning Plus
MIT
Phi-4推理增強版是微軟研究院開發的140億參數開源推理模型,通過監督微調和強化學習優化,專注於數學、科學和編程領域的高級推理能力。
大型語言模型
Transformers 支持多種語言

P
unsloth
189
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus 是由微軟研究院開發的開源推理模型,專注於數學、科學和編程領域的高級推理能力。
大型語言模型 支持多種語言
P
unsloth
109.62k
47
T5 Small Finetuned Xsum
Apache-2.0
基於T5-small模型在XSum數據集上微調的文本摘要模型
文本生成
Transformers

T
bdwjaya
103
0
Llama 3.1 8B SuperNova EtherealHermes GGUF
Apache-2.0
基於Llama-3.1架構的8B參數大語言模型,提供多種量化版本的GGUF格式文件
大型語言模型 英語
L
tensorblock
44
1
Ket5 News Summarizer
Apache-2.0
基於T5架構的韓語文本摘要模型,專門針對新聞報道進行微調訓練
文本生成 支持多種語言
K
onebeans
40
1
Aya Vision 8b
Aya Vision 8B是一個開放權重的80億參數多語言視覺語言模型,支持23種語言的視覺和語言任務。
圖像生成文本
Transformers 支持多種語言

A
CohereLabs
29.94k
282
Qwen2.5 0.5B Portuguese V1
MIT
基於Qwen2.5-0.5B-Instruct微調的葡萄牙語大語言模型,專注於文本生成任務
大型語言模型 其他
Q
cnmoro
2,218
4
Drama Large
DRAMA-large (0.3B) 是一個基於剪枝後大語言模型架構構建的稠密檢索模型,針對高效且可泛化的多語言文本檢索任務進行優化。
文本嵌入
Transformers 支持多種語言

D
facebook
55
7
Falcon3
Apache-2.0
Falcon3-10B-Instruct是Falcon3系列的開源基礎模型,擁有100億參數,專注於高質量指令跟隨任務,支持多語言處理,上下文長度可達32K tokens。
大型語言模型
F
cortexso
244
1
Granite Embedding 30m English
Apache-2.0
IBM Granite Embedding 30M English 是一個基於 transformer 架構的英文文本嵌入模型,由 IBM 開發併發布。
文本嵌入
Transformers 英語

G
ibm-granite
78.53k
10
Llama 3.1 Storm 8B GGUF
Llama-3.1-Storm-8B是基於Llama-3.1-8B-Instruct構建的改進模型,在多項基準測試中表現優異,適用於對話和函數調用任務。
大型語言模型 支持多種語言
L
akjindal53244
654
41
Mistral Nemo Instruct 2407 Awq
Mistral-Nemo-Instruct-2407 是一個基於 Mistral 架構的指令微調大語言模型,適用於多種自然語言處理任務。
大型語言模型
Transformers

M
casperhansen
5,322
11
Serafim 100m Portuguese Pt Sentence Encoder
MIT
基於sentence-transformers的葡萄牙語句子編碼器,可將文本映射到768維向量空間,適用於語義搜索和聚類任務。
文本嵌入 其他
S
PORTULAN
2,254
1
Sat 3l Sm
MIT
採用3層Transformer架構的頂尖句子分割技術,支持多語言文本分割。
序列標註
Transformers 支持多種語言

S
segment-any-text
168.01k
6
Openhermes 2.5
Apache-2.0
OpenHermes 2.5 Mistral 7B 是基於 Mistral 架構微調的最先進模型,是 OpenHermes 2 的延續版本,在額外代碼數據集上進行了訓練。
大型語言模型
O
cortexso
254
1
Ko Llama 3 8B Instruct
Ko-Llama-3-8B-Instruct 是一個專為提升韓語語言模型性能而開發的模型,基於 Meta-Llama-3-8B-Instruct 進行監督微調。
大型語言模型
Transformers 支持多種語言

K
davidkim205
140
8
Zion Alpha Instruction Tuned SLERP
Apache-2.0
Zion_Alpha_Instruction_Tuned_SLERP 是一款基於希伯來語訓練的創新型語言模型,在情感分析和自然語言推理等任務中表現卓越。
大型語言模型
Transformers 支持多種語言

Z
SicariusSicariiStuff
3,180
2
Nllb 200 Distilled 600M En Zh CN
這是一個基於Meta公司NLLB-200-distilled-600M模型微調的機器翻譯模型,專門用於英語到簡體中文的翻譯任務。
機器翻譯
Transformers 支持多種語言

N
HackerMonica
41
3
Llama 3 Typhoon V1.5 8b Instruct
基於Llama3-8B架構開發的80億參數指令調優泰語大語言模型,支持泰語和英語。
大型語言模型
Transformers 支持多種語言

L
scb10x
3,246
27
Llama 3 Wissenschaft 8B
其他
基於Llama-3-8b構建的多語言混合模型,融合了德語、意大利語和英語能力
大型語言模型
Transformers

L
nbeerbower
15
4
Llama 3 8B Summarization QLoRa
其他
基於Meta-Llama-3-8B模型在scitldr數據集上使用QLoRa技術微調的摘要生成模型
大型語言模型
TensorBoard

L
pkbiswas
29
0
Llama 3 8B Dutch
基於Llama 3 8B的荷蘭語對話模型,通過ORPO方法在荷蘭語反饋數據集上優化訓練
大型語言模型
Transformers 其他

L
ReBatch
47
12
Snowflake Arctic Embed Xs
Snowflake Arctic Embed XS 是一個輕量級的句子嵌入模型,專注於句子相似度和特徵提取任務。
文本嵌入
Transformers

S
Snowflake
125.31k
35
Rakutenai 7B Instruct
Apache-2.0
RakutenAI-7B-instruct是基於Mistral-7B架構優化的日語和英語大語言模型,在日語理解基準測試中表現優異,同時保持英語能力競爭力。
大型語言模型
Transformers 支持多種語言

R
Rakuten
671
44
Bloomz 560m Reranking
Openrail
基於Bloomz-560m構建的雙語重排序模型,用於衡量查詢與上下文的語義相關性,支持法語和英語
大型語言模型
Transformers 支持多種語言

B
cmarkea
17
1
Prodigy 7B GGUF Imatrix
Prodigy_7B的GGUF-Imatrix量化版本,採用重要性矩陣技術提升量化質量
大型語言模型
P
Lewdiculous
58
7
Qra 1b
Apache-2.0
Qra是由波蘭國家信息處理研究所與格但斯克理工大學聯合開發的波蘭語優化大語言模型系列,基於TinyLlama-1.1B初始化並在900億波蘭語token上訓練
大型語言模型
Transformers

Q
OPI-PG
246
20
Mobilellama 1.4B Chat
Apache-2.0
MobileLLaMA-1.4B-Chat 是基於 MobileLLaMA-1.4B-Base 微調而來的聊天模型,使用了 ShareGPT 數據集進行監督式指令微調。
大型語言模型
Transformers

M
mtgv
580
20
Mt5 Base Thaisum Text Summarization
基於mT5架構微調的泰語文本摘要模型,支持生成40-140字符的簡潔摘要
文本生成
Transformers 其他

M
StelleX
178
1
Btlm 3b 8k Chat
Apache-2.0
BTLM-3B-8k-chat是基於BTLM-3B-8K-base開發的對話版本,採用DPO方法優化,專為符合人類偏好的對話場景設計。
大型語言模型
Transformers 英語

B
cerebras
138
13
Saiga Mistral 7b GPTQ
Saiga Mistral 7B是基於Mistral架構的俄語大語言模型,由Ilya Gusev開發。
大型語言模型
Transformers

S
TheBloke
68
8
Openhermes 2.5 Mistral 7B GPTQ
Apache-2.0
OpenHermes 2.5是基於Mistral-7B微調的高級語言模型,專注於代碼生成和通用任務處理,性能優於前代版本。
大型語言模型
Transformers 英語

O
TheBloke
695
28
Openchat 3.5 GPTQ
Apache-2.0
OpenChat 3.5 7B是基於Mistral架構的7B參數大語言模型,由OpenChat團隊開發,採用Apache 2.0許可證發佈。
大型語言模型
Transformers

O
TheBloke
107
17
Distilcamembert Lleqa
Apache-2.0
基於法語法律信息檢索數據集LLeQA訓練的句子嵌入模型,適用於法律文本的語義搜索和聚類任務
文本嵌入 法語
D
maastrichtlawtech
22
3
Tst Summarization
基於google/pegasus-xsum微調的新聞摘要生成模型,在cnn_dailymail數據集上訓練
文本生成
Transformers 英語

T
ChaniM
23
0
Scandi Nli Base
Apache-2.0
基於NbAiLab/nb-bert-base微調的自然語言推理模型,支持丹麥語、挪威博克馬爾語和瑞典語
文本分類
Transformers 其他

S
alexandrainst
19
1
T5 Small Finetuned Cnn V2
Apache-2.0
基於T5-small模型在cnn_dailymail數據集上微調的文本摘要生成模型
文本生成
Transformers

T
ubikpt
20
1
T5 Small Finetuned Cnn
Apache-2.0
基於T5-small架構在cnn_dailymail數據集上微調的文本摘要生成模型,擅長新聞摘要生成任務
文本生成
Transformers

T
ubikpt
55
0
T5 Finetuned Test
基於維基指南數據集訓練的T5-small架構文本摘要模型
文本生成 英語
T
osanseviero
24
2
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98