# RoBERTa最適化

Hwtcmner
Apache-2.0
BERTをファインチューニングした固有表現認識専用モデルで、中医学分野向けに設計されており、この分野のNERタスクで最先端の性能を発揮します。
シーケンスラベリング Transformers 中国語
H
Monor
18
3
Roberta With Kornli
Apache-2.0
このモデルはklue/roberta-baseモデルを基に、kor_nliデータセットのmnliとxnliを使用してファインチューニングされ、韓国語ゼロショット分類タスク専用に設計されています。
テキスト分類 Transformers 韓国語
R
pongjin
52
7
Phobert Base V2
PhoBERTはベトナム語で最も先進的な事前学習言語モデルで、RoBERTaを基に最適化され、多くのベトナム語NLPタスクで優れた性能を発揮します。
大規模言語モデル Transformers その他
P
vinai
54.89k
27
Chatgpt Detector Roberta Chinese
RoBERTaアーキテクチャに基づく中国語ChatGPT生成テキスト検出モデルで、人間が書いたテキストとChatGPTが生成したテキストを区別します。
テキスト分類 Transformers 中国語
C
Hello-SimpleAI
368
24
Legal Roberta Large
RoBERTa大規模モデルを基にLeXFiles法律コーパスで継続事前学習した法律分野の言語モデル
大規模言語モデル Transformers 英語
L
lexlms
367
13
Relbert Roberta Large
RelBERTはRoBERTa-largeをベースとしたモデルで、関係埋め込みタスク専用に設計されており、SemEval-2012タスク2データセットでNCE(ノイズ対比推定)を用いて学習されています。
テキスト埋め込み Transformers
R
relbert
97
2
Roberta Base Cuad Finetuned
契約理解Atticusデータセット(CUAD)質問応答タスク向けに最適化されたRoBERTaモデルで、法律契約審査タスクで優れた性能を発揮
質問応答システム Transformers 英語
R
gustavhartz
387
1
Simpledataset
Apache-2.0
distilroberta-baseをファインチューニングしたモデル、具体的な用途とトレーニングデータは明記されていません
大規模言語モデル Transformers
S
DioLiu
174
0
Erlangshen Roberta 330M Sentiment
Apache-2.0
中国語RoBERTa-wwm-ext-largeモデルをベースに、複数の感情分析データセットでファインチューニングされた最適化バージョン
テキスト分類 Transformers 中国語
E
IDEA-CCNL
65.15k
34
Roberta Base Serbian Upos
これはセルビア語向けのRoBERTaモデルで、品詞タグ付けと依存構文解析に特化しています。
シーケンスラベリング Transformers その他
R
KoichiYasuoka
64
0
Roberta Base Squad2
これはRoBERTaベースの抽出型Q&Aモデルで、SQuAD 2.0データセット向けに特別に訓練されており、英語のQ&Aタスクに適しています。
質問応答システム Transformers 英語
R
ydshieh
31
0
Roberta Fake News
RoBERTaアーキテクチャに基づいてトレーニングされたフェイクニュース検出モデルで、ニューステキストの内容を分析してその信憑性を判断します。
テキスト分類
R
ghanashyamvtatti
26
3
Phobert Large
MIT
PhoBERTはベトナム語の最先端の事前学習言語モデルで、RoBERTaを基にBERTの事前学習プロセスを最適化し、複数のベトナム語NLPタスクで優れた性能を発揮します。
大規模言語モデル その他
P
vinai
23.47k
10
Roberta Base Fiqa Flm Sq Flit
RoBERTa-baseをベースに、金融分野の質問応答タスクで微調整されたモデルで、銀行、金融、保険分野のカスタム質問応答システム向けに設計されています。
質問応答システム Transformers
R
vanadhi
205
1
Sup Simcse Roberta Large
RoBERTa-largeベースの教師ありSimCSEモデルで、文埋め込みと特徴抽出タスクに使用されます。
テキスト埋め込み
S
princeton-nlp
276.47k
25
Xlm Roberta Base Finetuned Marc En
MIT
XLM - RoBERTa - baseモデルをamazon_reviews_multiデータセットで微調整した多言語テキスト分類モデル
大規模言語モデル Transformers
X
daveccampbell
29
0
Roberta Base MITmovie
Roberta Baseモデルを基に、MIT映画データセットを使用して固有表現認識タスクを訓練したモデル
シーケンスラベリング
R
thatdramebaazguy
34
1
Simcse Chinese Roberta Wwm Ext
シンプルな対照学習に基づく簡体字中国語文埋め込みエンコーディングモデルで、中国語RoBERTa WWM拡張版を事前学習モデルとして使用しています。
テキスト埋め込み Transformers
S
cyclone
188
32
Phobert Base
MIT
PhoBERTはベトナム語で最も先進的な事前学習言語モデルで、RoBERTaアーキテクチャを基に最適化され、多くのベトナム語NLPタスクで優れた性能を発揮します。
大規模言語モデル その他
P
vinai
368.06k
53
Emoroberta
MIT
RoBERTaアーキテクチャに基づく細粒度感情分類モデルで、GoEmotionsデータセットで訓練され、28種類の感情カテゴリーを識別可能。
テキスト分類 Transformers 英語
E
arpanghoshal
21.47k
119
Rubiobert
RuBioRoBERTaはロシア語の生物医学テキスト向けに事前学習されたRoBERTaモデルで、生物医学分野の自然言語処理タスクに特化しています。
大規模言語モデル Transformers
R
alexyalunin
686
1
Bertweet Base
MIT
BERTweetは、英文ツイートに対して大規模事前学習を行った最初の公開言語モデルで、RoBERTa事前学習方法に基づいて構築されています。
大規模言語モデル
B
vinai
74.86k
37
Roberta Base Bne Finetuned Amazon Reviews Multi
このモデルはroberta-base-bneをAmazonの多言語レビューデータセットでファインチューニングしたテキスト分類モデルで、主にスペイン語レビューの感情分析に使用されます。
テキスト分類 Transformers
R
Proggleb
13
0
Roberta Base English Upos
これはRoBERTa事前学習モデルを基に、UD_Englishデータセットを使用して品詞タグ付けと依存構文解析を行うモデルです。
シーケンスラベリング Transformers 複数言語対応
R
KoichiYasuoka
64
1
Roberta Base Finetuned Sst2
RoBERTaアーキテクチャに基づくテキスト分類モデルで、SST-2感情分析タスクでファインチューニングされ、精度は94.5%
テキスト分類 Transformers
R
Bhumika
53
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase