Qwen2.5 0.5B Portuguese V1
MIT
基於Qwen2.5-0.5B-Instruct微調的葡萄牙語大語言模型,專注於文本生成任務
大型語言模型 其他
Q
cnmoro
2,218
4
Legal Ai India Ner Results
該模型是基於nlpaueb/legal-bert-base-uncased在InLegalNER數據集上微調的版本,專門用於印度法律文本的命名實體識別任務。
序列標註
Transformers

L
Amitava25
30
1
Halong Embedding
Apache-2.0
專注於RAG(檢索增強生成)和生產效率的越南語文本嵌入模型,基於intfloat/multilingual-e5-base微調
文本嵌入 支持多種語言
H
hiieu
7,651
29
Phi 3 Portuguese Tom Cat 4k Instruct Q5 K M GGUF PTBR
Apache-2.0
這是一個基於Microsoft Phi-3-mini-4k-instruct模型微調的葡萄牙語指令模型,轉換為GGUF格式以便在llama.cpp中使用。
大型語言模型 其他
P
noxinc
21
1
Mistral 7B Portuguese
基於Mistral-7B-Instruct-v0.2微調的葡萄牙語大語言模型,專注於提升葡萄牙語文本生成能力
大型語言模型
Transformers 支持多種語言

M
cnmoro
124
13
Polish Cross Encoder
這是一個基於波蘭語的交叉編碼器模型,用於文本排序和句子相似度計算。
文本嵌入
Transformers 其他

P
radlab
4,106
4
Vietnamese FlanT5 Large
Apache-2.0
基於Flan-T5-Large的多語言序列到序列模型,支持越南語、英語和中文,適用於摘要生成、翻譯和問答等任務。
大型語言模型
Transformers 支持多種語言

V
Hatto
116
4
EUBERT
EUBERT是一個基於歐洲出版局文檔訓練的多語言BERT模型,支持24種歐盟語言,適用於文本分類、問答和語言理解任務。
大型語言模型
Transformers 支持多種語言

E
EuropeanParliament
118
14
Legal Longformer Base
基於LexLM(基礎版)RoBERTa模型擴展的長文本法律語言模型,專為處理法律長文檔優化
大型語言模型
Transformers 英語

L
lexlms
221
5
Legal Xlm Roberta Base
CC
基於法律數據預訓練的多語言XLM-RoBERTa模型,支持24種歐洲語言的法律文本處理
大型語言模型
Transformers 支持多種語言

L
joelniklaus
387
3
Bert Large Portuguese Cased Sts
基於BERTimbau大模型微調的葡萄牙語語義文本相似度模型,可將句子映射到1024維向量空間
文本嵌入
Transformers 其他

B
rufimelo
633
8
Bart Large Tos
MIT
BART是一個採用編碼器-編碼器架構的Transformer模型,針對服務條款的抽象摘要任務進行了微調
文本生成
Transformers

B
ML-unipi
21
2
Hupd T5 Small
該模型是基於HUPD數據集微調的T5小型模型,專門用於專利文本的摘要生成任務。
文本生成
Transformers 英語

H
HUPD
21
3
Bertimbaulaw Base Portuguese Cased
MIT
該模型是基於葡萄牙語BERT基礎模型(neuralmind/bert-base-portuguese-cased)進行微調的版本,具體任務未明確說明
大型語言模型
Transformers

B
alfaneo
47
1
Bertimbau Base Portuguese Sts
基於BERTimbau的葡萄牙語句子相似度計算模型,可將句子和段落映射到768維向量空間
文本嵌入
Transformers

B
alfaneo
344
1
Ledbill
Apache-2.0
基於Billsum數據集微調的長文檔編碼器-解碼器(LED)模型,專長於法律文本摘要生成
文本生成
Transformers 其他

L
d0r1h
22
0
German Qg T5 Quad
MIT
針對德語問題生成任務微調的T5模型,基於GermanQUAD數據集訓練
問答系統
Transformers 德語

G
dehio
85
5
Ner Bert Base Cased Pt Lenerbr
這是一個針對葡萄牙語法律領域的命名實體識別(NER)模型,基於BERT基礎架構微調而成,專門用於識別法律文本中的命名實體。
序列標註
Transformers 其他

N
pierreguillou
2,429
17
Robertalex
Apache-2.0
基於西班牙法律領域語料訓練的RoBERTa基礎模型,專注於西班牙語法律文本處理
大型語言模型
Transformers 西班牙語

R
PlanTL-GOB-ES
379
17
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98