Tf Camembert Base
RoBERTaアーキテクチャに基づくフランス語先進言語モデル、Tensorflowフレームワークに適応
大規模言語モデル
Transformers

T
jplu
1,942
0
Medical Ner Roberta
RoBERTaアーキテクチャに基づく医療分野の名前付きエンティティ認識モデルで、医療テキストから特定のエンティティを識別するために使用されます
シーケンスラベリング
Transformers

M
nairaxo
58
1
Parrots Chinese Roberta Wwm Ext Large
Apache-2.0
RoBERTaアーキテクチャに基づく中国語事前学習モデル、テキスト音声変換タスクをサポート
大規模言語モデル
Transformers 中国語

P
shibing624
76
2
Polish Reranker Base Mse
Apache-2.0
これは平均二乗誤差(MSE)蒸留法でトレーニングされたポーランド語テキストランキングモデルで、トレーニングデータセットには140万のクエリと1000万のドキュメントのテキストペアが含まれています。
テキスト埋め込み
Transformers その他

P
sdadas
16
0
Simcse Roberta Large Zh
MIT
SimCSE(sup) は中国語文の類似度タスクに使用されるモデルで、文を埋め込みベクトルにエンコードし、文間のコサイン類似度を計算することができます。
テキスト埋め込み
Transformers 中国語

S
hellonlp
179
1
Klue Roberta Base Klue Sts
これはsentence-transformersに基づくモデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
K
shangrilar
165
0
AIGC Detector Env2
Apache-2.0
マルチスケール正の未ラベル検出方法に基づくAI生成テキスト検出器で、AIによって生成されたテキスト内容を識別するために使用されます。
テキスト分類
Transformers

A
yuchuantian
94
5
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers その他

A
abbasgolestani
18
0
Simcse Indoroberta Base
これはIndoRobertaベースの文変換モデルで、インドネシア語の文や段落を768次元ベクトル空間にマッピングでき、文類似度計算や意味検索タスクに適しています。
テキスト埋め込み
Transformers その他

S
LazarusNLP
15
0
Legal Dutch Roberta Base
RoBERTaアーキテクチャに基づくオランダ語法律分野の基本モデル
大規模言語モデル
Transformers

L
joelniklaus
25
2
Legal Xlm Roberta Base
CC
法律データで事前学習された多言語XLM-RoBERTaモデル、24の欧州言語の法律文書処理をサポート
大規模言語モデル
Transformers 複数言語対応

L
joelniklaus
387
3
Drbert 7GB
Apache-2.0
DrBERTは、フランス語の医療テキストのオープンソースコーパスNACHOSを基に訓練されたフランス語のRoBERTaモデルで、生物医学と臨床分野に特化しています。
大規模言語モデル
Transformers フランス語

D
Dr-BERT
4,781
13
Congen Simcse Model Roberta Base Thai
Apache-2.0
これはRoBERTaアーキテクチャに基づくタイ語文類似度モデルで、文を768次元のベクトル空間にマッピングでき、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

C
kornwtp
86
1
Danskbert
デンマークBERTはデンマーク語に最適化された言語モデルで、デンマーク語ScandEvalベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers その他

D
vesteinn
151
6
Maltberta
MaltBERTaはマルタ語テキストの大規模事前学習に基づく言語モデルで、RoBERTaアーキテクチャを採用し、MaCoCuプロジェクトによって開発されました。
大規模言語モデル その他
M
MaCoCu
26
0
Robertuito Pos
RoBERTuitoに基づくスペイン語/英語の品詞タグ付けモデル。ツイッターテキスト用に最適化されています。
シーケンスラベリング
Transformers スペイン語

R
pysentimiento
188
0
Xlm Roberta Base Finetuned Panx All
MIT
xlm-roberta-baseモデルをPANXデータセットでファインチューニングした多言語固有表現認識モデル
大規模言語モデル
Transformers

X
okite97
15
0
Roberta Base Ca V2 Cased Ner
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語固有表現認識モデル、AnCora-Ca-NERデータセットでファインチューニング
シーケンスラベリング
Transformers その他

R
projecte-aina
986
0
Roberta Base Finetuned Squad
MIT
SQuAD 2.0データセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデルで、与えられたテキストに基づいて質問に答えるために使用されます
質問応答システム
Transformers

R
janeel
16
0
Xlm Roberta Base Finetuned Panx All
MIT
xlm-roberta-baseを多言語データセットでファインチューニングした固有表現認識モデル
大規模言語モデル
Transformers

X
flood
15
0
Kosimcse Roberta Multitask
RoBERTaアーキテクチャを最適化した韓国語意味類似度計算モデルで、マルチタスク学習により高性能な文埋め込みを実現
テキスト埋め込み
Transformers 韓国語

K
BM-K
37.37k
23
Roberta Base Coptic Upos
RoBERTaベースのコプト語品詞タグ付けと依存構文解析モデル
シーケンスラベリング
Transformers その他

R
KoichiYasuoka
67
0
Tibetan Roberta Causal Base
MIT
これはRoBERTaアーキテクチャに基づくチベット語事前訓練因果言語モデルで、主にチベット語テキスト生成タスクに使用されます。
大規模言語モデル
Transformers その他

T
sangjeedondrub
156
5
Legalbert Large 1.7M 1
RoBERTaの事前学習目標に基づき、英語の法律および行政テキストで事前学習されたBERT大規模モデル
大規模言語モデル
Transformers 英語

L
pile-of-law
120
14
Roberta Base Turkish Uncased
MIT
トルコ語事前学習済みRoBERTaベースモデル、38GBのトルコ語コーパスで訓練
大規模言語モデル
Transformers その他

R
burakaytan
57
16
Bsc Bio Es
Apache-2.0
スペイン語の生物医学分野向けに設計された事前学習済み言語モデルで、臨床NLPタスクに適しています
大規模言語モデル
Transformers スペイン語

B
PlanTL-GOB-ES
162
5
Roberta Retrained Ru Covid Papers
roberta-retrained_ru_covidをベースに未知のデータセットで微調整されたロシア語モデル、COVID-19関連研究論文の処理に関連している可能性あり
大規模言語モデル
Transformers

R
Daryaflp
15
0
Icebert Xlmr Ic3
RoBERTa-baseアーキテクチャに基づくアイスランド語マスク言語モデルで、xlm-roberta-baseを微調整して訓練されました。
大規模言語モデル
Transformers その他

I
mideind
24
0
Icebert Ic3
RoBERTa-baseアーキテクチャで訓練されたアイスランド語マスキング言語モデル、fairseqフレームワークを使用
大規模言語モデル
Transformers その他

I
mideind
16
0
Roberta Toxicity Classifier V1
RoBERTaアーキテクチャに基づくテキスト毒性分類器のクローン版、テキスト解毒アルゴリズムの効果評価に使用
テキスト分類
Transformers

R
s-nlp
139
0
Bertin Base Gaussian
これはRoBERTa-baseアーキテクチャに基づき、ゼロから訓練されたスペイン語のマスク埋めモデルです。
大規模言語モデル スペイン語
B
bertin-project
16
0
Bertin Base Stepwise
RoBERTaアーキテクチャに基づくスペイン語の事前学習モデルで、マスク埋めタスクに特化しています。
大規模言語モデル スペイン語
B
bertin-project
15
0
Icebert
RoBERTa-baseアーキテクチャに基づいて訓練されたアイスランド語のマスク言語モデル。16GBのアイスランド語テキストデータを使用して訓練されました。
大規模言語モデル
Transformers その他

I
mideind
1,203
3
Roberta Base Squad2
MIT
これはRoBERTaアーキテクチャに基づく質問応答モデルで、SQuAD 2.0データセットを対象に訓練され、英語の質問応答タスクに適しています。
質問応答システム 英語
R
navteca
101
0
Bertin Base Random
これはRoBERTa-baseアーキテクチャに基づき、完全にスペイン語データを使用してゼロから学習されたモデルで、マスク埋めタスクに特化しています。
大規模言語モデル スペイン語
B
bertin-project
19
0
Roberta Base Japanese
日本語RoBERTaに基づく事前学習モデルで、学習データには日本語ウィキペディアとCC-100の日本語部分が含まれています。
大規模言語モデル
Transformers 日本語

R
nlp-waseda
456
32
Bertweet Covid19 Base Uncased
MIT
BERTweetは英語ツイート向けに事前学習された初の大規模公開言語モデルで、RoBERTaアーキテクチャを基に最適化され、ソーシャルメディアテキストに特化しています。
大規模言語モデル
B
vinai
15
2
Camembert2camembert Shared Finetuned French Summarization
このモデルはCamemBERTアーキテクチャに基づくフランス語テキスト要約モデルで、フランス語ニュース要約タスクに特化してファインチューニングされています。
テキスト生成
Transformers フランス語

C
mrm8488
540
14
Roberta Base Indonesian 522M
MIT
RoBERTa-baseアーキテクチャに基づくインドネシア語の事前学習モデルで、インドネシア語のウィキペディアデータを使用して学習され、大文字小文字を区別しません。
大規模言語モデル その他
R
cahya
454
6
Guwenbert Large
Apache-2.0
文言文事前学習に基づくRoBERTaモデルで、古文処理タスクに適しています。
大規模言語モデル 中国語
G
ethanyt
217
10
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98