Xlm Roberta Base Intent Twin
MIT
XLM-RoBERTa-baseはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、ロシア語と英語をサポートし、テキスト分類タスクに適しています。
テキスト分類
Transformers 複数言語対応

X
forthisdream
30
1
Roberta Psych
RoBERTaアーキテクチャに基づく事前学習モデルで、心理カウンセリングと治療対話テキストに特化して最適化されています
大規模言語モデル
Transformers

R
mlaricheva
13
2
Bertweetbr
Apache-2.0
BERTweet.BRはポルトガル語ツイートに特化した事前学習済み言語モデルで、RoBERTaアーキテクチャに基づき、1億件のポルトガル語ツイートで学習されています。
大規模言語モデル
Transformers その他

B
melll-uff
339
10
Bertovski
BERTovskiはブルガリア語とマケドニア語のテキストで訓練された大規模事前学習言語モデルで、RoBERTaアーキテクチャを採用し、MaCoCuプロジェクトの成果です。
大規模言語モデル その他
B
MaCoCu
28
1
Bsc Bio Ehr Es
Apache-2.0
スペイン語の生物医学および臨床テキストに最適化された事前学習言語モデルで、臨床NLPタスクをサポートします。
大規模言語モデル
Transformers スペイン語

B
PlanTL-GOB-ES
624
12
Robertuito Sentiment Analysis
RoBERTuitoベースのスペイン語ツイート感情分析モデル、POS(ポジティブ)/NEG(ネガティブ)/NEU(ニュートラル)の3分類に対応
テキスト分類 スペイン語
R
pysentimiento
1.0M
88
Bertweet Large
MIT
BERTweetは英語ツイート向けに設計された初の大規模事前学習言語モデルで、RoBERTaアーキテクチャに基づいて訓練され、ソーシャルメディアテキスト分析に適しています。
大規模言語モデル
Transformers

B
vinai
2,853
12
Palobert Base Greek Uncased V1
RoBERTaベースのギリシャ語言語モデル、ギリシャのソーシャルメディアテキスト専用に設計
大規模言語モデル
Transformers その他

P
gealexandri
20
4
Wangchanberta Base Att Spm Uncased
78.5GBのタイ語テキストで事前学習されたRoBERTa BASEモデル、マスク言語モデリングおよびテキスト分類タスクに適応
大規模言語モデル
Transformers その他

W
airesearch
34.38k
43
Magbert Ner
Apache-2.0
MagBERT-NERはモロッコフランス語(マグリブ地域)向けに特別に設計された最先端の固有表現認識モデルです。
シーケンスラベリング
Transformers フランス語

M
TypicaAI
37
4
Roberta Base Ca
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語の事前学習言語モデルで、スペイン政府機関によって開発されました。
大規模言語モデル
Transformers その他

R
PlanTL-GOB-ES
15.56k
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98