Cricket Project 03
MIT
このモデルはmicrosoft/deberta-v3-baseをファインチューニングしたバージョンで、評価データセットで優れた性能を示し、精度は99.87%に達しました。
大規模言語モデル
Transformers

C
rawsun00001
22
1
Amber Large
Apache-2.0
modernbert-ja-310m をベースとした日英双语句子特徴抽出モデルで、文の類似度計算とテキスト分類タスクをサポート
テキスト埋め込み 複数言語対応
A
retrieva-jp
239.28k
7
First Name Classification
MIT
Transformerアーキテクチャに基づく分類器で、入力された名前が実在する姓名か架空の名称かを判断
テキスト分類 英語
F
vishodi
241
1
Fake News Classification Distilbert Fine Tuned
Apache-2.0
DistilBERTをファインチューニングしたフェイクニュース分類モデルで、精度は約99%
テキスト分類
Transformers 英語

F
harshhmaniya
107
1
Factcg DeBERTa V3 Large
MIT
FactCGはDeBERTa-v3-largeアーキテクチャに基づくテキスト分類モデルで、大規模言語モデルが生成するコンテンツ中の根拠のない幻覚を検出するために特別に設計されています。
テキスト分類
Safetensors 英語
F
yaxili96
118
2
PTBR GPT4 O NewsClassifier
Apache-2.0
bert-base-multilingual-casedをファインチューニングしたモデルで、評価セットで99.93%の精度を達成
大規模言語モデル
Transformers

P
gui8600k
25
1
Stella En 400M V5
MIT
Stella 400M v5は英語テキスト埋め込みモデルで、複数のテキスト分類および検索タスクで優れた性能を発揮します。
大規模言語モデル
Transformers その他

S
billatsectorflow
7,630
3
Vision 1 Mini
Llama 3.1で最適化された80億パラメータのブランドセーフティ分類モデル、Appleチップデバイス向けに特別に最適化
テキスト分類
Transformers 複数言語対応

V
OverseerAI
28
1
Aistockbot
RoBERTaアーキテクチャに基づく事前学習モデルで、ツイッターテキストの感情分析タスクに特化しています。
テキスト分類
Transformers

A
HanBrar
23
1
Modernbert Llm Router
Apache-2.0
BERT-baseをベースにファインチューニングしたモデルで、テキスト分類タスク用。評価データセットでF1スコア0.9313を達成
大規模言語モデル
Transformers

M
SunitOutreach
15
1
Roberta Large Multilingual Sentiment
Apache-2.0
XLM-RoBERTa-largeをファインチューニングした多言語感情分類モデルで、16以上の言語の感情分析をサポート
テキスト分類
Transformers 複数言語対応

R
clapAI
1,282
4
Modernbert Base Multilingual Sentiment
Apache-2.0
ModernBERT-baseをファインチューニングした多言語感情分類モデルで、16以上の言語の感情分析をサポート
テキスト分類
Transformers 複数言語対応

M
clapAI
2,220
19
Spam Mail Classifier
Apache-2.0
microsoft/Multilingual-MiniLM-L12-H384をファインチューニングしたテキスト分類モデルで、メール件名をスパムメール(SPAM)または非スパムメール(NOSPAM)に分類します。
テキスト分類
Transformers

S
Goodmotion
943
3
Kategoriopoiitis Ellinikon Poikilion
GreekBERTベースのテキスト分類器で、ギリシャ語テキストを4つのバリエーション(古代/中世ギリシャ語、標準現代ギリシャ語、口語ギリシャ語、純正ギリシャ語)に分類します。
テキスト分類 その他
K
glossAPI
13
2
Xlm Roberta Base Fake News Detection Tl
XLM-RoBERTaベースのフィリピン語/タガログ語フェイクニュース検出モデル、精度95.46%
テキスト分類 複数言語対応
X
iceman2434
321
2
Distilbertnewssentiments
これはAutoTrainを使用してSST-2英語データセットでファインチューニングされたDistilBERTモデルで、テキスト分類タスクに使用されます。
テキスト分類
TensorBoard

D
maheshshastrakar
28
1
Gte Qwen2 1.5B Instruct GGUF
Apache-2.0
Qwen2アーキテクチャに基づく7Bパラメータ規模の文埋め込みモデルで、文類似度タスクに特化しており、MTEBベンチマークテストで優れた性能を発揮します。
大規模言語モデル
G
mav23
169
2
Dunzhang Stella En 400M V5
MIT
Stella 400Mは中規模の英語テキスト処理モデルで、分類と情報検索タスクに特化しています。
テキスト分類
Transformers その他

D
Marqo
17.20k
7
Stella En 400M V5 Cpu
MIT
stella_en_400M_v5_cpuは、複数の自然言語処理タスクで優れた性能を発揮するモデルで、特に分類、検索、クラスタリング、意味テキスト類似度などのタスクに長けています。
テキスト埋め込み
S
biggunnyso4
612
1
NV Embed V2
NV-Embed-v2 は sentence-transformers ベースの埋め込みモデルで、複数の MTEB ベンチマークテストで優れたパフォーマンスを発揮し、様々な自然言語処理タスクに適しています。
テキスト埋め込み
Transformers 英語

N
nvidia
35.55k
420
SFR Embedding 2 R
Salesforceが開発した汎用テキスト埋め込みモデルで、様々なNLPタスクで優れた性能を発揮
テキスト埋め込み
Transformers 英語

S
Salesforce
26.90k
86
Bert Base Uncased Finetuned Clause Type
Apache-2.0
BERTベースのファインチューニングモデルで、法律条項分類タスクに特化しており、精度は88%です。
テキスト分類
Transformers 英語

B
mauro
21
1
Adebert
Apache-2.0
adeBERTはBERT-largeアーキテクチャをファインチューニングしたモデルで、特定領域タスクに特化しており、評価セットで優れた性能を発揮します。
大規模言語モデル
Transformers

A
Jacobberk
25
1
BERT Crime Analysis
Apache-2.0
これはBERT-base-uncasedをファインチューニングしたテキスト分類モデルで、犯罪記述から犯罪タイプを識別するために特別に設計されており、34の分類ラベルを含みます。
テキスト分類
Transformers

B
Luna-Skywalker
44
3
Roberta Base Suicide Prediction Phr
MIT
RoBERTa-baseを微調整したテキスト分類モデルで、テキスト中の自殺傾向を検出するために使用され、精度は96.5%に達します。
テキスト分類
Transformers 英語

R
vibhorag101
24.88k
11
Embeddingmodlebgelargeenv1.5
MIT
BGE Large English v1.5 は高性能な文変換モデルで、文の特徴抽出と類似度計算に特化しています。
テキスト埋め込み
Transformers 英語

E
binqiangliu
19
0
Stella Base En V2
MIT
stella-base-en-v2はsentence-transformersベースの英語テキスト埋め込みモデルで、文の類似性と特徴抽出タスクに特化しています。
テキスト埋め込み 英語
S
infgrad
16.89k
15
Offensive Speech Detection
Apache-2.0
DistilBERT軽量モデルを基にした憎悪/攻撃的発言検出器。大規模テキスト事前学習と専用データセットによるファインチューニングで効率的な識別を実現
テキスト分類
Transformers 英語

O
Falconsai
88
5
Deberta V3 Base Mnli Fever Anli
DeBERTa-v3ベースのゼロショット分類モデルで、マルチタスク自然言語推論(MNLI)、FEVER、ANLIタスクをサポートし、Transformers.jsに適応するためにONNX形式に変換済み
大規模言語モデル
Transformers

D
Xenova
52
0
Centralbankroberta Sentiment Classifier
MIT
中央銀行コミュニケーション向けに最適化された微調整済み大規模言語モデル、経済主体分類器と感情分類器を含む
大規模言語モデル
Transformers 英語

C
Moritz-Pfeifer
7,351
5
Bart MNLI CNN News
Apache-2.0
CNNニュースデータセットでファインチューニングされたBART-MNLIモデル、ゼロショットテキスト分類タスク用
テキスト分類
Transformers 英語

B
AyoubChLin
64
0
Layout Xlm Base Finetuned With DocLayNet Base At Paragraphlevel Ml512
MIT
このモデルはLayoutXLMベースモデルをDocLayNetデータセットで微調整したバージョンで、ドキュメントレイアウト分析と段落レベルの内容理解に特化しています。
文字認識
Transformers 複数言語対応

L
pierreguillou
79
9
Bert Base Turkish Cased Emotion Analysis
MIT
トルコ語BERTモデルをファインチューニングした感情分析モデルで、評価データセットで優れた性能を発揮
テキスト分類
Transformers

B
maymuni
191
6
Lilt Xlm Roberta Base Finetuned With DocLayNet Base At Paragraphlevel Ml512
MIT
これはドキュメント理解モデルで、ドキュメントのレイアウトと内容を分析するために特別に設計されており、段落レベルでのタグ分類タスクを実行します。
文字認識
Transformers 複数言語対応

L
pierreguillou
126
3
Website Classification
Apache-2.0
DistilBERTベースのウェブサイト分類モデルで、微調整により未知のデータセットで95.04%の正確率を達成しました。
テキスト分類
Transformers

W
alimazhar-110
3,844
37
Korean Sentiment Analysis Kcelectra
MIT
KcELECTRA-base-v2022をベースに微調整した韓国語感情分析モデルで、評価セットで良好な結果を得ました。
テキスト分類
Transformers

K
nlp04
6,616
6
Berturk Tremo
このモデルは、TREMOトルコ語感情分類データセットでファインチューニングされたBERTurk casedバージョンで、トルコ語感情分析タスクに使用されます。
テキスト分類
Transformers その他

B
coltekin
25
1
Finbert Tone Finetuned Finance Topic Classification
Twitterの金融ニュース主題データセットを基に微調整された金融ツイート主題分類モデルで、20種類の金融主題分類をサポートします。
テキスト分類
Transformers

F
nickmuchi
2,813
67
Instructor Base
Apache-2.0
T5アーキテクチャに基づくテキスト埋め込みモデルで、文の類似性計算とテキスト検索タスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

I
hkunlp
13.22k
116
Xlm Roberta Base Multilingual Text Genre Classifier
X-GENRE分類器は、xlm-roberta-baseに基づく多言語テキストジャンル分類モデルで、複数の言語の自動ジャンル識別をサポートします。
テキスト分類
Transformers 複数言語対応

X
classla
774
29
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98