Roberta Chinese Med Inquiry Intention Recognition Base
Apache-2.0
このモデルはRoBERTaを微調整したテキスト分類モデルで、ユーザーの入力テキストが医療相談か日常的な雑談かを識別することに特化しています。
テキスト分類 中国語
R
StevenZhun
23
1
Roberta Chinese Med Inquiry Intention Recognition Base
Apache-2.0
このモデルはRoBERTa微調整に基づくテキスト分類モデルで、ユーザー入力テキストの意図を認識し、医療診察と日常的な雑談の2つのシナリオを区別します。
テキスト分類 中国語
R
HZhun
27
2
Roberta Base Stress Classification
MIT
roberta-baseを微調整したストレス分類モデルで、従業員のレビュー内のストレス関連コンテンツを識別します。
テキスト分類
Transformers

R
dstefa
20
1
Scamllm
RoBERTaを微調整した悪意ある提示検出モデルで、釣り詐欺ウェブサイト/メールの生成を誘導する悪意ある提示を識別できます。
テキスト分類
Transformers

S
phishbot
294
7
Centralbankroberta Sentiment Classifier
MIT
中央銀行コミュニケーション向けに最適化された微調整済み大規模言語モデル、経済主体分類器と感情分類器を含む
大規模言語モデル
Transformers 英語

C
Moritz-Pfeifer
7,351
5
Roberta Spam
MIT
RoBERTaを微調整したテキスト分類モデルで、スパムメール/SMSを識別するために特別に設計され、精度は99.06%に達します
テキスト分類
Transformers 英語

R
mshenoda
38.82k
30
Chatgpt Detector Roberta
RoBERTa-baseを基にしたChatGPT生成テキスト検出モデルで、人間が書いたテキストとChatGPTが生成したテキストを区別するために使用されます
テキスト分類
Transformers 英語

C
Hello-SimpleAI
8,178
53
Roberta Base Ca V2 Cased Qa
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語質問応答モデルで、カタルーニャ語質問応答タスクで優れた性能を発揮します。
質問応答システム
Transformers その他

R
projecte-aina
208
1
Roberta Large Finetuned Abbr
MIT
RoBERTa-largeモデルをPLOD-unfilteredデータセットで微調整した命名エンティティ認識モデルで、科学テキスト中の略語と用語を識別するために特化しています。
シーケンスラベリング
Transformers 英語

R
surrey-nlp
64
2
Roberta Base Ca Cased Pos
Apache-2.0
カタルーニャ語の品詞タグ付け(POS)モデルで、roberta-base-caモデルを微調整したもの
シーケンスラベリング
Transformers その他

R
projecte-aina
26
0
Roberta Goemotion
MIT
RoBERTaアーキテクチャに基づくテキスト分類モデルで、GoEmotionsデータセットに特化して微調整され、28種類の異なる感情を識別するために使用されます。
テキスト分類
Transformers 英語

R
bsingh
47
3
Math Roberta
MIT
RoBERTa-largeアーキテクチャに基づいて微調整された、数学学習環境専用のNLPモデルで、数学教育シーンに最適化されています。
大規模言語モデル
Transformers 英語

M
uf-aice-lab
257
4
Klue Roberta Small 3i4k Intent Classification
KLUEに基づくRoBERTa-smallモデルを微調整した韓国語意図分類モデルで、7種類の異なる意図タイプを識別するために使用されます。
テキスト分類
Transformers 韓国語

K
bespin-global
362
11
Roberta Base Finetuned Jd Binary Chinese
UER-pyを基に微調整された中国語RoBERTa-Base分類モデルで、5つの異なるデータセットのテキスト分類モデルを含む。
テキスト分類 中国語
R
uer
10.96k
29
Roberta Base Few Shot K 256 Finetuned Squad Seed 6
MIT
RoBERTa-baseモデルをベースに、SQuADデータセットで微調整した質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

R
anas-awadalla
20
0
Roberta Temporal Predictor
MIT
RoBERTa-baseアーキテクチャに基づいて微調整された時系列関係予測モデルで、2つのイベントの前後順序を判断するために使用されます。
大規模言語モデル
Transformers

R
CogComp
15
3
Sagemaker Roberta Base Emotion
Apache-2.0
RoBERTa-baseアーキテクチャを微調整した多クラステキスト分類モデルで、感情検出タスク向けに設計されており、emotionデータセットで検証精度94.1%を達成。
テキスト分類
Transformers 英語

S
Jorgeutd
41
0
Bio Lm
RoBERTaの基礎事前学習モデルに基づき、生命科学分野の英語科学テキストでさらに学習した言語モデル
大規模言語モデル
B
EMBO
16
0
Roberta Base Best Squad2
RoBERTaに基づく英語の抽出型質問応答モデルで、SQuAD 2.0データセットで訓練され、回答ありと回答なしの質問応答シナリオを処理できます。
質問応答システム
Transformers

R
PremalMatalia
30
1
Sd Ner
RoBERTa基礎モデルに基づき、生命科学分野の英語科学テキストで微調整された命名実体識別モデル
シーケンスラベリング
S
EMBO
14
0
Password Model
誤検出されたパスワードを自動的にフィルタリングするためのテキスト分類モデルで、証憑マイニングツールと連携して使用します。
テキスト分類
Transformers 英語

P
SAPOSS
4,884
13
Fidicbert
FidicBERTはRoBERTaアーキテクチャに基づく法律分野の事前学習言語モデルで、契約書類の分類とクラスタリングタスクに特化して最適化されています。
大規模言語モデル
Transformers

F
Jzz
18
1
Roberta Large Winogrande
このモデルは、Winogrande - XLデータセットで微調整されたRoBERTa Largeモデルで、シーケンス分類タスクに使用され、特に穴埋め式の推論問題に最適化されています。
テキスト分類
Transformers 英語

R
DeepPavlov
836
1
Smilestokenizer PubChem 1M
このモデルは、PubChem 77Mデータセットの100万のSMILESを用いて訓練されたRoBERTaモデルで、Smiles-Tokenizerツールを使用して分かち書きを行い、分子表現学習と化学情報処理タスクに適しています。
分子モデル
Transformers

S
DeepChem
134
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98