# 多領域適用

Qwen3 Reranker 4B W4A16 G128
Apache-2.0
這是對Qwen/Qwen3-Reranker-4B進行GPTQ量化的成果,顯著降低了顯存使用量
大型語言模型 Transformers
Q
boboliu
157
1
Authormist Originality
MIT
專為將AI生成文本轉化為更接近人類寫作風格而設計的語言模型,優化用於規避AI文本檢測系統
大型語言模型 Transformers 英語
A
authormist
64
2
Quickmt Zh En
一個速度快且準確度高的神經機器翻譯模型,用於中文到英文的翻譯
機器翻譯 支持多種語言
Q
quickmt
23
1
Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
這是一個量化版本的大語言模型,旨在讓知識更易於獲取和使用。
大型語言模型
H
DevQuasar
572
3
Macbert4csc V2
Apache-2.0
macbert4csc_v2是一款用於中文拼寫糾錯的模型,採用了特定架構和訓練策略,在多個測評數據集上表現良好,適用於多種領域的文本糾錯任務。
大型語言模型 PyTorch 中文
M
Macropodus
112
2
Polite Guard
Apache-2.0
禮貌衛士是由英特爾開發的開源NLP語言模型,基於BERT微調用於文本分類任務,旨在將文本分為禮貌、較為禮貌、中立和不禮貌四類。
文本分類 Transformers 英語
P
Intel
367
10
Provence Reranker Debertav3 V1
Provence是一款輕量級的上下文剪枝模型,專為檢索增強生成優化,尤其適用於問答場景。
大型語言模型 英語
P
naver
1,506
13
Moirai Moe 1.0 R Base
這是一個預訓練的時間序列預測模型,專注於時序數據分析與預測任務。
氣候模型 Safetensors
M
Salesforce
374.41k
9
Whisper Base Hungarian V1
基於OpenAI Whisper-base模型微調的匈牙利語語音識別模型,在1200小時匈牙利語數據上訓練,表現優於同類模型
語音識別 Transformers 其他
W
sarpba
26
7
Gemma 7b Aps It
Gemma-APS是用於抽象命題分割(APS)的生成模型,能夠將文本段落分解為獨立的事實、陳述和觀點。
大型語言模型 Transformers
G
google
161
33
Autogluon Chronos T5 Large
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為標記序列進行訓練。
氣候模型
A
anchovy
25
0
Whisper Large V3 Myanmar
Apache-2.0
本模型是基於openai/whisper-large-v3在緬甸語語音數據集上微調的自動語音識別模型,專門用於緬甸語語音轉錄。
語音識別 Transformers 其他
W
chuuhtetnaing
172
1
Test Patchtsmixer
Apache-2.0
PatchTSMixer 是 IBM Granite 項目下的一個時間序列預測基礎模型,採用創新的 Patch 混合架構,適用於多種時間序列預測任務。
氣候模型
T
ibm-research
5,300
0
Test Patchtst
Apache-2.0
PatchTST是一個預訓練的時間序列基礎模型,專注於時間序列預測任務。
氣候模型
T
ibm-research
5,593
0
Text Rewriter Paraphraser
Openrail
基於T5-Base微調的文本複述生成模型,能夠高效改寫文本內容,保持原意的同時改變句式結構。
文本生成 Transformers
T
Ateeqq
1,613
21
Minicheck Flan T5 Large
MIT
MiniCheck-Flan-T5-Large是一個基於Flan-T5-Large架構的事實核查模型,用於預測文檔是否支持給定聲明。
文本分類 Transformers 英語
M
lytang
1,410
12
Tweety 7b Dutch V24a
Apache-2.0
Tweety-7b-dutch是一個專注於荷蘭語的基礎大語言模型,基於mistral架構,使用荷蘭語分詞器優化荷蘭語文本處理能力。
大型語言模型 Transformers 其他
T
Tweeties
1,568
13
Clf Sentimentos Cmts
MIT
針對巴西葡萄牙語社交媒體文本的情感分類模型,支持表情符號處理
文本分類 Transformers
C
tbluhm
113
1
Universal Ner Ita
Apache-2.0
專為意大利語設計的通用命名實體識別模型,採用零樣本學習方法,無需針對特定實體進行訓練即可識別廣泛實體類型。
序列標註 Safetensors 其他
U
DeepMount00
214
30
Translate Ar En V1.0 Hplt Opus
基於OPUS和HPLT數據訓練的阿拉伯語-英語機器翻譯模型,提供Marian和Hugging Face兩種格式。
機器翻譯 Transformers 支持多種語言
T
HPLT
20
2
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基於Long-T5架構的文本摘要模型,使用合成數據集synthsumm微調,專注於長文本摘要任務。
文本生成 Transformers 英語
L
pszemraj
15
1
Kobart Korean Summarizer V2
基於gogamza/kobart-base-v2訓練的韓語文本摘要模型,使用AI Hub中的68萬條摘要數據訓練
文本生成 Transformers
K
gangyeolkim
164
0
Tapex Large Finetuned Qtsumm
MIT
基於BART架構的表格摘要生成模型,針對查詢聚焦的表格摘要任務進行了優化。
文本生成 Transformers 英語
T
yale-nlp
18
0
Hubert Base Audioset
基於HuBERT架構的音頻表徵模型,在完整AudioSet數據集上預訓練,適用於通用音頻任務
音頻分類 Transformers
H
ALM
345
2
Wav2vec2 Large Audioset
基於HuBERT架構的音頻表徵模型,在完整AudioSet數據集上預訓練,適用於通用音頻任務
音頻分類 Transformers
W
ALM
43
0
Llama 2 7b Absa
Apache-2.0
基於Llama-2-7b微調的ABSA模型,擅長識別文本中的方面並分析情感
大型語言模型 Transformers 支持多種語言
L
Orkhan
124
12
Dfm Sentence Encoder Large
MIT
這是基於SimCSE方法訓練的丹麥語文本嵌入模型,作為斯堪的納維亞嵌入基準測試的一部分開發
文本嵌入 Transformers 其他
D
KennethEnevoldsen
66
2
Arman Longformer 8k Finetuned Ensani
一個針對波斯語長文本進行摘要的模型,支持8K令牌長度的輸入。
文本生成 Transformers 其他
A
zedfum
16
2
Polite Bert
Apache-2.0
Polite Bert是一個基於BERT微調的模型,用於對英文句子的禮貌程度進行分級,包括不禮貌、中性、較禮貌和禮貌四個等級。
文本分類 Transformers 英語
P
NOVA-vision-language
100
3
Japanese Gpt Neox 3.6b
MIT
一個擁有36億參數的日語GPT-NeoX模型,基於Transformer架構,在3125億token的日語語料上訓練。
大型語言模型 Transformers 支持多種語言
J
rinna
34.74k
99
Zero Shot Vanilla Bi Encoder
MIT
基於BERT的雙編碼器模型,專為零樣本文本分類任務設計,在UTCD數據集上訓練
文本分類 Transformers 英語
Z
claritylab
27
0
T5 Efficient Gc4 All German Small El32
MIT
基於德語大規模清洗版Common Crawl語料庫(GC4)訓練的T5模型,專注於德語自然語言處理任務。
大型語言模型 Transformers 德語
T
GermanT5
52
4
Omnitab Large
OmniTab是基於BART架構的表格問答模型,通過自然與合成數據預訓練實現少樣本表格問答能力
問答系統 Transformers 英語
O
neulab
158
2
T5 Large Ua News
MIT
基於mt5-large架構微調的烏克蘭語新聞摘要生成模型,使用UberText語料庫訓練
文本生成 Transformers 其他
T
SGaleshchuk
51
3
Bloom 350m German
MIT
基於德語數據從頭訓練的BLOOM-350m語言模型,是BLOOM系列的小規模版本,專注於德語文本生成任務。
大型語言模型 Transformers 德語
B
malteos
26
0
Opus Mt Tc Big De Es
這是一個由赫爾辛基大學語言技術研究小組開發的德語到西班牙語的神經機器翻譯模型,屬於OPUS-MT項目的一部分。
機器翻譯 Transformers 支持多種語言
O
Helsinki-NLP
33
1
Hgn Trans En2zh
Apache-2.0
這是一個基於Helsinki-NLP/opus-mt-en-zh預訓練模型微調的英中翻譯模型,使用清華大學開放中文詞庫(THUOCL)數據集進行微調。
機器翻譯 Transformers 支持多種語言
H
BubbleSheep
1,069
3
Exp W2v2t Ja Vp It S544
Apache-2.0
基於facebook/wav2vec2-large-it-voxpopuli模型,使用Common Voice 7.0 (日語版)的訓練集進行語音識別微調的日語自動語音識別模型。
語音識別 Transformers 日語
E
jonatasgrosman
18
0
Tibetan Roberta Causal Base
MIT
這是一個基於RoBERTa架構的藏文預訓練因果語言模型,主要用於藏文文本生成任務。
大型語言模型 Transformers 其他
T
sangjeedondrub
156
5
Opus Mt Tc Big Tr En
這是一個基於Transformer架構的大型神經機器翻譯模型,專門用於從土耳其語翻譯到英語。
機器翻譯 Transformers 支持多種語言
O
Helsinki-NLP
98.62k
29
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase