BERT FR NFR Classifier
Apache-2.0
このモデルはBERT-uncasedをファインチューニングした機能/非機能要求予測モデルで、AWS g5インスタンス上でPROMISEデータセットとカスタムデータを使用した転移学習により、全体の精度は97%を達成しています。
テキスト分類
Safetensors 英語
B
Chumafly
80
1
Trustpilot Review Classifier
MIT
BERTベースのドイツ語テキスト分類モデルで、Trustpilotユーザーレビューの評価分類に使用されます。
テキスト分類
Transformers ドイツ語

T
Puidii
69
1
Tinybert Frugal Ai Text Classification
Apache-2.0
TinyBERTベースのテキスト分類モデルで、気候懐疑論の見解を識別・分類するために特別に設計され、LLMデータバランシング技術でクラス不均衡問題を解決します。
テキスト分類
Transformers 英語

T
ParisNeo
31
5
Bias Identificaiton45
RoBERTaをファインチューニングした偏見識別モデル、10種類の偏見タイプを分類
テキスト分類
Transformers

B
PriyaPatel
61
4
Roberta Base Go Emotions Onnx
MIT
これはRoBERTa-base-go_emotionsモデルのONNXバージョンで、フル精度とINT8量子化をサポートし、マルチラベル感情分析タスクに使用されます。
テキスト分類
Transformers 英語

R
SamLowe
41.50k
20
Distilbert Prompt Injection
Apache-2.0
プロンプトインジェクション攻撃の検出と防止に使用されるデータセットで、多言語テキスト分析をサポート
大規模言語モデル
Transformers 複数言語対応

D
fmops
8,440
6
Autotrain Mbtinlp 798824628
これはAutoTrainを使用してトレーニングされたMBTI人格タイプ分析用の多クラス分類モデルです
テキスト分類
Transformers 英語

A
Sathira
30
3
Roberta Base Bne Finetuned Amazon Reviews Multi
Apache-2.0
roberta-base-bneモデルをAmazonの多言語レビューデータセットでファインチューニングしたテキスト分類モデルで、主にスペイン語レビューの感情分析に使用されます
テキスト分類
Transformers

R
fjluque
17
0
Roberta Large Mnli
MIT
RoBERTa大型モデルをMNLIコーパスで微調整したテキスト分類モデルで、ゼロショット分類タスクに適しています。
大規模言語モデル 英語
R
FacebookAI
262.29k
174
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98