Deberta V3 Large News Classifier
MIT
microsoft/deberta-v3-largeをファインチューニングしたニュース見出しのマルチクラス分類モデルで、7つのニュースカテゴリ分類をサポートします。
テキスト分類
Transformers 英語

D
logicalqubit
210
1
W2v Bert 2.0 Naijavoices Clearglobal Hausa 500hr V0
MIT
facebook/w2v-bert-2.0をファインチューニングしたハウサ語音声認識モデルで、500時間のハウサ語データで訓練され、単語誤り率7.47%
音声認識
Transformers

W
asr-africa
16
1
Modernbert Large Zeroshot V1
MIT
ModernBERT-largeをファインチューニングした自然言語推論モデルで、ゼロショット分類タスク専用
テキスト分類
Transformers 英語

M
r-f
54
2
Videomae Base ASD Eye Contact V2
VideoMAEベースモデルをファインチューニングしたビデオ分析モデルで、自閉症スペクトラム障害(ASD)関連のアイコンタクト認識タスクに特化
動画処理
Transformers

V
kanlo
48
1
Ptt5 Small Named Entity Recognition
660万の文ペアと固有表現でファインチューニングされたポルトガル語テキスト処理モデルで、自然言語理解と生成タスクに特化しています。
大規模言語モデル
Transformers その他

P
cnmoro
53
1
T5 Small Named Entity Recognition
660万組の文と固有表現でファインチューニングされたモデル
大規模言語モデル
Transformers 英語

T
cnmoro
51
1
Cafe Waifu
大規模言語モデル
Transformers

C
cafeai
1,292
3
Nbme Deberta Large
MIT
microsoft/deberta-largeをベースにファインチューニングしたモデルで、特定タスク処理用
大規模言語モデル
Transformers

N
smeoni
136
0
Finetuned
BibliBERTはイタリア語事前学習モデルdbmdz/bert-base-italian-xxl-casedをファインチューニングしたバージョンで、主にマスク言語モデリングタスクに使用されます。
大規模言語モデル
Transformers

F
vppvgit
18
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
このモデルはDistilBERTベースモデルをCOLAデータセットでファインチューニングしたバージョンで、主に文法受容可能性判断タスクに使用されます。
大規模言語モデル
Transformers

D
andreiliphdpr
17
0
Deberta V3 Large Sst2 Train 8 8
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットでファインチューニングした感情分析モデル
テキスト分類
Transformers

D
SetFit
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98