Kanana Nano 2.1b Instruct GGUF
Kanana Nano 2.1B Instruct 是一個由 Kakao 開發的 21 億參數指令微調語言模型,支持英語和韓語文本生成任務。
大型語言模型 支持多種語言
K
Melvin56
55
1
Kanana Nano 2.1b Embedding
Kanana是由Kakao開發的雙語(韓語/英語)語言模型系列,在韓語任務上表現卓越,在英語任務上具備競爭力,相比同規模模型顯著降低計算成本。
大型語言模型
Transformers 支持多種語言

K
kakaocorp
7,722
20
Summarisation Model
這是一個基於SAMSum數據集微調的T5文本摘要模型,適用於對話和會話的摘要任務。
文本生成
Transformers

S
Saravanankumaran
16
0
My Frugal Audio Model
Apache-2.0
這是基於facebook/wav2vec2-base微調的音頻處理模型,主要用於語音相關任務
音頻分類
Transformers

M
hsalehILB
1
0
Modern Bert Multilingual
Apache-2.0
ModernBertMultilingual是一個從零開始訓練的多語言模型,支持中文、英文、日文和韓文,在混合東亞語言文本任務中表現優異。
大型語言模型
Safetensors 支持多種語言
M
neavo
333
20
Safesql V1
Apache-2.0
基於Keras 3.x訓練的惡意SQL檢測模型,能識別多種SQL注入攻擊向量
文本分類 英語
S
deathsaber93
41
1
Zlm B64 Le4 S8000
MIT
該模型是基於microsoft/speecht5_tts微調的語音合成(TTS)模型,主要用於文本到語音轉換任務。
語音合成
Transformers

Z
mikhail-panzo
24
0
MIDI Transformer Mistral 10k Vocab 100k Steps
該模型是基於未知數據集進行微調的版本,具體任務和架構信息不詳。
大型語言模型
Transformers

M
sunsetsobserver
44
1
Wav2vec2 Large Xls R 300m Albanian Colab
Apache-2.0
該模型是基於facebook/wav2vec2-xls-r-300m在common_voice_albanian數據集上微調的語音處理模型,適用於阿爾巴尼亞語相關任務。
語音識別
Transformers

W
Alimzhan
8,810
1
Bart Multinews Model
這是一個基於multi_news數據集訓練的文本摘要模型,能夠從多文檔輸入中生成簡潔的摘要。
文本生成
Transformers

B
usakha
18
0
Dreambooth Diffusion Clay Cups
基於Keras Dreambooth微調的文本生成圖像模型,可生成孟加拉陶土藝術風格的各類物品圖像
圖像生成
D
keras-dreambooth
13
0
Bert Finetuned Small Data Uia
Apache-2.0
該模型是基於bert-base-uncased在未指定數據集上微調的版本,適用於自然語言處理任務。
大型語言模型
Transformers

B
eibakke
22
0
Fillmaskmodel
MIT
基於xlm-roberta-base微調的填充掩碼模型,用於預測被遮蔽的文本片段
大型語言模型
Transformers

F
Okyx
46
1
Vit Base Patch16 224 Wi2
Apache-2.0
基於google/vit-base-patch16-224微調的視覺Transformer模型,適用於圖像分類任務
圖像分類
Transformers

V
Imene
21
0
Vit Base Patch16 224 In21k Wr
Apache-2.0
該模型是基於google/vit-base-patch16-224-in21k在未知數據集上微調的視覺Transformer模型,主要用於圖像分類任務。
圖像分類
Transformers

V
Imene
21
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
該模型是基於Google的ViT模型在未知數據集上微調的版本,主要用於圖像分類任務。
圖像分類
Transformers

V
Zynovia
22
0
Malaya Speech Fine Tune MrBrown 15 Jun
該模型是在uob_singlish數據集上對malay-huggingface/wav2vec2-xls-r-300m-mixed進行微調的版本,主要用於新加坡英語語音識別。
語音識別
Transformers

M
RuiqianLi
44
0
Wav2vec2 2 Gpt2 Regularisation
這是一個基於 LibriSpeech 數據集訓練的自動語音識別(ASR)模型,能夠將英語語音轉換為文本。
語音識別
Transformers

W
sanchit-gandhi
20
0
Wav2vec2 2 Bart Base
基於wav2vec2-base和bart-base在LibriSpeech ASR clean數據集上微調的語音識別模型
語音識別
Transformers

W
patrickvonplaten
493
5
Transformers Qa
Apache-2.0
該模型是基於distilbert-base-cased在SQuAD數據集上微調的問答模型,專為Keras.io的問答教程訓練。
問答系統
Transformers

T
keras-io
23
4
Alphadelay
Apache-2.0
基於facebook/wav2vec2-base微調的語音識別模型,詞錯誤率(WER)為1.0
語音識別
Transformers

A
renBaikau
17
0
Wav2vec2 Large Lv60h 100h 2nd Try
基於LibriSpeech數據集微調的wav2vec2-large-lv60語音識別模型,支持英語語音轉文本任務
語音識別
Transformers

W
patrickvonplaten
20
0
Test Model
Apache-2.0
ResNet50 v1.5 是原始 ResNet50 v1 模型的改進版本,通過調整卷積步幅提升了約 0.5% 的 top1 準確率。
圖像分類
Transformers

T
mchochowski
18
0
Electra Large Discriminator Squad2 512
這是一個基於ELECTRA架構的大規模判別器模型,專門針對問答任務在SQuAD2.0數據集上進行了微調,能夠處理有答案和無答案的問答場景。
問答系統
Transformers

E
ahotrod
8,925
6
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98