Tinyllava Video R1
Apache-2.0
TinyLLaVA-Video-R1是基於可溯源訓練模型TinyLLaVA-Video的小規模視頻推理模型,通過強化學習顯著提升了推理與思維能力,並展現出'頓悟時刻'的湧現特性。
視頻生成文本
Transformers

T
Zhang199
123
2
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small在亞馬遜英西數據集上微調的摘要生成模型,支持英語到西班牙語的文本摘要任務。
機器翻譯
Transformers

M
QHWU1228
17
0
Fikri 3.1 8B Instruct
Fikri是一個專為土耳其語任務定製的語言模型,基於Llama 3.1架構,具有80億參數。
大型語言模型
Safetensors
F
BrewInteractive
3,226
6
Mt5 Vi News Summarization
Apache-2.0
基於google/mt5-small在越南新聞摘要數據集上微調的文本摘要模型,支持越南語新聞自動摘要生成
文本生成
Transformers 其他

M
ntkhoi
354
0
Sentence Transformers Multilingual E5 Small
MIT
multilingual-e5-small 是一個在多語言文本處理任務中表現出色的模型,支持分類、檢索、聚類、重排序、語義文本相似度等多種任務。
文本嵌入 支持多種語言
S
beademiguelperez
3,922
1
Flan T5 Portuguese Small Summarization
Apache-2.0
基於google/flan-t5-small微調的葡萄牙語摘要生成模型,適用於葡萄牙語文本摘要任務,模型規模較小但表現良好。
文本生成
Transformers 其他

F
rhaymison
45
0
Polka 1.1b
Apache-2.0
polka-1.1b是基於TinyLlama-1.1B模型,通過繼續在57億波蘭語token上進行預訓練而增強的雙語(波蘭語和英語)文本生成模型。
大型語言模型
Transformers 支持多種語言

P
eryk-mazus
174
8
Pivot 0.1 Early
PiVoT是基於Mistral 7B微調的模型,從Synatra v0.3 RP衍生出的變體,展現出不錯的性能表現。
大型語言模型
Transformers 支持多種語言

P
maywell
1,851
8
Nli Deberta V3 Small
基於DeBERTa-v3的小型自然語言推理模型,適用於零樣本分類任務
文本分類
Transformers

N
Xenova
423
0
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBR是一個面向巴西葡萄牙語的基礎大語言模型,屬於BERT家族的編碼器,基於Transformer神經網絡架構,並在DeBERTa模型基礎上開發。
大型語言模型
Transformers 其他

A
PORTULAN
131
7
Electricidad Small Finetuned Restaurant Sentiment Analysis
基於Electricidad-small微調的餐廳評論情感分析模型,用於判斷評論情感傾向
文本分類
Transformers 西班牙語

E
mrm8488
27
5
Bert Small Japanese Fin
這是一個基於日語文本預訓練的BERT模型,特別針對金融領域進行了優化。
大型語言模型
Transformers 日語

B
izumi-lab
4,446
2
Roberta Urdu Small
MIT
roberta-urdu-small 是一個針對烏爾都語的小型語言模型,基於RoBERTa架構,專門用於處理烏爾都語文本任務。
大型語言模型 其他
R
urduhack
1,131
8
Sentencetransformer Roberta Hinglish Small
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入
Transformers

S
aditeyabaral
17
0
Gpt Neo 125M Apps
MIT
基於GPT-Neo-125M在APPS數據集上微調的編程任務解決模型
大型語言模型 支持多種語言
G
flax-community
81
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98