# 混合精度訓練

Kanana Nano 2.1b Instruct GGUF
Kanana Nano 2.1B Instruct 是一個由 Kakao 開發的 21 億參數指令微調語言模型,支持英語和韓語文本生成任務。
大型語言模型 支持多種語言
K
Melvin56
55
1
Kanana Nano 2.1b Embedding
Kanana是由Kakao開發的雙語(韓語/英語)語言模型系列,在韓語任務上表現卓越,在英語任務上具備競爭力,相比同規模模型顯著降低計算成本。
大型語言模型 Transformers 支持多種語言
K
kakaocorp
7,722
20
Summarisation Model
這是一個基於SAMSum數據集微調的T5文本摘要模型,適用於對話和會話的摘要任務。
文本生成 Transformers
S
Saravanankumaran
16
0
My Frugal Audio Model
Apache-2.0
這是基於facebook/wav2vec2-base微調的音頻處理模型,主要用於語音相關任務
音頻分類 Transformers
M
hsalehILB
1
0
Modern Bert Multilingual
Apache-2.0
ModernBertMultilingual是一個從零開始訓練的多語言模型,支持中文、英文、日文和韓文,在混合東亞語言文本任務中表現優異。
大型語言模型 Safetensors 支持多種語言
M
neavo
333
20
Safesql V1
Apache-2.0
基於Keras 3.x訓練的惡意SQL檢測模型,能識別多種SQL注入攻擊向量
文本分類 英語
S
deathsaber93
41
1
Zlm B64 Le4 S8000
MIT
該模型是基於microsoft/speecht5_tts微調的語音合成(TTS)模型,主要用於文本到語音轉換任務。
語音合成 Transformers
Z
mikhail-panzo
24
0
MIDI Transformer Mistral 10k Vocab 100k Steps
該模型是基於未知數據集進行微調的版本,具體任務和架構信息不詳。
大型語言模型 Transformers
M
sunsetsobserver
44
1
Wav2vec2 Large Xls R 300m Albanian Colab
Apache-2.0
該模型是基於facebook/wav2vec2-xls-r-300m在common_voice_albanian數據集上微調的語音處理模型,適用於阿爾巴尼亞語相關任務。
語音識別 Transformers
W
Alimzhan
8,810
1
Bart Multinews Model
這是一個基於multi_news數據集訓練的文本摘要模型,能夠從多文檔輸入中生成簡潔的摘要。
文本生成 Transformers
B
usakha
18
0
Dreambooth Diffusion Clay Cups
基於Keras Dreambooth微調的文本生成圖像模型,可生成孟加拉陶土藝術風格的各類物品圖像
圖像生成
D
keras-dreambooth
13
0
Bert Finetuned Small Data Uia
Apache-2.0
該模型是基於bert-base-uncased在未指定數據集上微調的版本,適用於自然語言處理任務。
大型語言模型 Transformers
B
eibakke
22
0
Fillmaskmodel
MIT
基於xlm-roberta-base微調的填充掩碼模型,用於預測被遮蔽的文本片段
大型語言模型 Transformers
F
Okyx
46
1
Vit Base Patch16 224 Wi2
Apache-2.0
基於google/vit-base-patch16-224微調的視覺Transformer模型,適用於圖像分類任務
圖像分類 Transformers
V
Imene
21
0
Vit Base Patch16 224 In21k Wr
Apache-2.0
該模型是基於google/vit-base-patch16-224-in21k在未知數據集上微調的視覺Transformer模型,主要用於圖像分類任務。
圖像分類 Transformers
V
Imene
21
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
該模型是基於Google的ViT模型在未知數據集上微調的版本,主要用於圖像分類任務。
圖像分類 Transformers
V
Zynovia
22
0
Malaya Speech Fine Tune MrBrown 15 Jun
該模型是在uob_singlish數據集上對malay-huggingface/wav2vec2-xls-r-300m-mixed進行微調的版本,主要用於新加坡英語語音識別。
語音識別 Transformers
M
RuiqianLi
44
0
Wav2vec2 2 Gpt2 Regularisation
這是一個基於 LibriSpeech 數據集訓練的自動語音識別(ASR)模型,能夠將英語語音轉換為文本。
語音識別 Transformers
W
sanchit-gandhi
20
0
Wav2vec2 2 Bart Base
基於wav2vec2-base和bart-base在LibriSpeech ASR clean數據集上微調的語音識別模型
語音識別 Transformers
W
patrickvonplaten
493
5
Transformers Qa
Apache-2.0
該模型是基於distilbert-base-cased在SQuAD數據集上微調的問答模型,專為Keras.io的問答教程訓練。
問答系統 Transformers
T
keras-io
23
4
Alphadelay
Apache-2.0
基於facebook/wav2vec2-base微調的語音識別模型,詞錯誤率(WER)為1.0
語音識別 Transformers
A
renBaikau
17
0
Wav2vec2 Large Lv60h 100h 2nd Try
基於LibriSpeech數據集微調的wav2vec2-large-lv60語音識別模型,支持英語語音轉文本任務
語音識別 Transformers
W
patrickvonplaten
20
0
Test Model
Apache-2.0
ResNet50 v1.5 是原始 ResNet50 v1 模型的改進版本,通過調整卷積步幅提升了約 0.5% 的 top1 準確率。
圖像分類 Transformers
T
mchochowski
18
0
Electra Large Discriminator Squad2 512
這是一個基於ELECTRA架構的大規模判別器模型,專門針對問答任務在SQuAD2.0數據集上進行了微調,能夠處理有答案和無答案的問答場景。
問答系統 Transformers
E
ahotrod
8,925
6
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase