Train 1000 ViT5 Test
這是一個基於VietAI/vit5-base模型,使用AutoTrain進行訓練的序列到序列模型,支持文本生成任務。
大型語言模型
Transformers

T
Nosiath
29
1
Summllama3 8B Q3 K M GGUF
該模型是基於DISLab/SummLlama3-8B轉換的GGUF格式模型,適用於文本摘要任務。
文本生成
S
dil99x
32
0
Setfit Contracts Clauses
這是一個基於SetFit框架的文本分類模型,專門用於合同條款分類任務,準確率達94.25%。
文本分類
S
scholarly360
100
6
Gyr66 Bert Base Chinese Finetuned Ner Onnx
Apache-2.0
這是 gyr66/bert-base-chinese-finetuned-ner 模型的 ONNX 格式轉換版本,用於中文命名實體識別任務。
序列標註
Transformers 中文

G
protectai
171
1
Gujiroberta Jian Fan
該模型是基於/gemini/data-1/sikuroberta_vocabtxt微調得到的版本,具體用途和功能需要進一步信息補充。
大型語言模型
Transformers

G
hsc748NLP
62
5
Zh Wiki Punctuation Restore
一個用於中文維基百科文本的標點符號恢復工具,支持恢復6種常見標點符號。
序列標註
Transformers 支持多種語言

Z
p208p2002
102.99k
11
T5 Finetune Cnndaily News
MIT
基於Transformer架構的輕量級預訓練編碼器-解碼器模型,專用於中文新聞摘要生成任務。
文本生成
Transformers 英語

T
minhtoan
22
2
Bert Base Chinese Ws Finetuned Ner All
Gpl-3.0
該模型是基於ckiplab/bert-base-chinese-ws在中文命名實體識別(NER)任務上微調的版本,在評估集上表現出色。
序列標註
Transformers

B
HYM
41
2
Bert Base Han Chinese Ws
Gpl-3.0
該模型為古代漢語提供分詞功能,訓練數據集涵蓋漢語發展的四個歷史時期。
序列標註
Transformers 中文

B
ckiplab
14
2
Model Distiluse Base Multilingual Cased V1 10 Epochs
這是一個基於sentence-transformers的句子嵌入模型,能夠將句子和段落映射到512維的稠密向量空間,適用於語義搜索和聚類等任務。
文本嵌入
M
jfarray
33
0
Model Dccuchile Bert Base Spanish Wwm Uncased 1 Epochs
這是一個基於sentence-transformers的句子嵌入模型,可將文本映射到256維向量空間,適用於語義搜索和聚類任務。
文本嵌入
M
jfarray
8
0
Model Dccuchile Bert Base Spanish Wwm Uncased 10 Epochs
這是一個基於sentence-transformers的句子嵌入模型,可將文本映射到256維向量空間,適用於語義搜索和聚類任務。
文本嵌入
M
jfarray
12
0
Finetuned Bart
基於BART架構的序列到序列模型,在CNN/DailyMail數據集上進行了微調,適用於文本摘要任務。
大型語言模型
Transformers

F
Mousumi
19
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98