Roberta Large 1160k
MIT
北欧コーパスで訓練された多言語RoBERTa大規模モデル、スウェーデン語、ノルウェー語、デンマーク語、英語をサポート
大規模言語モデル
Transformers 複数言語対応

R
AI-Sweden-Models
1,159
10
Madlad400 7b Mt
Apache-2.0
T5アーキテクチャに基づく多言語機械翻訳モデル、400以上の言語をサポート、2500億トークンで訓練
機械翻訳 複数言語対応
M
google
4,450
15
Roberta Base Turkish Uncased
MIT
トルコ語事前学習済みRoBERTaベースモデル、38GBのトルコ語コーパスで訓練
大規模言語モデル
Transformers その他

R
burakaytan
57
16
Opus Mt Tc Big En Es
OPUS-MTプロジェクトが提供する英語からスペイン語へのニューラル機械翻訳モデル、transformer-bigアーキテクチャに基づく
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
29.31k
14
Opus Mt Tc Big Tr En
これはTransformerアーキテクチャに基づく大規模なニューラル機械翻訳モデルで、トルコ語から英語への翻訳に特化しています。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
98.62k
29
Opus Mt Tc Big Lt En
これはリトアニア語から英語へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
312
2
Opus Mt Tc Big Sh En
これはセルビア・クロアチア語(sh)から英語(en)へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
28.03k
0
Opus Mt Tc Big El En
これは現代ギリシャ語(el)から英語(en)へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部であり、高品質な翻訳サービスを提供することを目的としています。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
302
4
Opus Mt Tc Big Cat Oci Spa En
これはカタロニア語、オック語、スペイン語から英語への翻訳用ニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
24
2
Opus Mt Tc Big Gmq En
これは北ゲルマン語派(gmq)から英語(en)へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
552
0
Opus Mt Tc Big En It
これは英語からイタリア語への翻訳用ニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部であり、transformer-bigアーキテクチャを採用しています。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
16.22k
5
Opus Mt Tc Big En Gmq
これは英語から北ゲルマン語派(デンマーク語、フェロー語、アイスランド語、ノルウェー語ブークモール、ノルウェー語ニーノシュク、スウェーデン語を含む)へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
372
3
Opus Mt Tc Big En Cat Oci Spa
これは英語からカタロニア語、オック語、スペイン語への翻訳用ニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
30
4
Opus Mt Tc Big En Ar
これは英語からアラビア語へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部であり、多目的言語翻訳をサポートしています。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
4,562
23
Opus Mt Tc Big De Zle
これはドイツ語から東スラブ語族(ベラルーシ語、ロシア語、ウクライナ語)への翻訳用ニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
63
0
Icebert Xlmr Ic3
RoBERTa-baseアーキテクチャに基づくアイスランド語マスク言語モデルで、xlm-roberta-baseを微調整して訓練されました。
大規模言語モデル
Transformers その他

I
mideind
24
0
Icebert Ic3
RoBERTa-baseアーキテクチャで訓練されたアイスランド語マスキング言語モデル、fairseqフレームワークを使用
大規模言語モデル
Transformers その他

I
mideind
16
0
Bert Base Arabert
AraBERTはGoogleのBERTアーキテクチャに基づくアラビア語事前学習言語モデルで、アラビア語自然言語理解タスク向けに設計されています。
大規模言語モデル アラビア語
B
aubmindlab
74.71k
29
Gerpt2 Large
MIT
GerPT2はドイツ語版GPT2の大規模バージョンで、CC - 100コーパスとドイツ語ウィキペディアを基に訓練され、ドイツ語テキスト生成タスクで優れた性能を発揮します。
大規模言語モデル ドイツ語
G
benjamin
75
9
Plt5 Small
plT5はT5アーキテクチャに基づき、ポーランド語用に最適化された言語モデルで、翻訳、要約生成、質問応答、読解などのタスクをサポートします。
大規模言語モデル
Transformers その他

P
allegro
58
2
Indot5 Base
インドネシア語mC4データセットで事前学習されたT5(テキストからテキストへの変換Transformer)ベースモデル、使用前に微調整が必要
大規模言語モデル
Transformers その他

I
Wikidepia
635
1
Norbert
NorBERTはノルウェー語に最適化されたBERTモデルで、オスロ大学言語技術グループによって開発されました。NorLMプロジェクトの一環として、ノルウェー語に高品質な言語モデルを提供することを目的としています。
大規模言語モデル その他
N
ltg
199
7
Mbarthez
Apache-2.0
BARThezは、BARTアーキテクチャに基づくフランス語のシーケンス-to-シーケンス事前学習モデルで、抽象要約などの生成タスクに特に適しています。
大規模言語モデル
Transformers フランス語

M
moussaKam
1,032
6
Bert Base Arabertv02
AraBERTはBERTアーキテクチャに基づくアラビア語の事前学習言語モデルで、アラビア語理解タスクに特化して最適化されています。
大規模言語モデル アラビア語
B
aubmindlab
666.17k
35
Barthez
Apache-2.0
BARThezはBARTアーキテクチャに基づくフランス語のシーケンス・ツー・シーケンス事前学習モデルで、抽象的要約などの生成タスクに特に適しています。
大規模言語モデル
Transformers フランス語

B
moussaKam
1,487
17
Roberta Tagalog Base
タガログ語(フィリピン語)向けに開発されたRoBERTaモデルで、TLUnifiedコーパスで訓練され、フィリピン語NLPタスクをサポート
大規模言語モデル
Transformers その他

R
jcblaise
710
4
Bert Base Qarib60 1970k
QARiBはアラビア語及び方言に基づくBERTモデルで、訓練データには約4億2000万件のツイートと1億8000万件のテキスト文が含まれ、様々なアラビア語NLPタスクをサポートします。
大規模言語モデル アラビア語
B
ahmedabdelali
41
1
Bert Base Qarib60 1790k
QARiBは約4.2億のツイートと1.8億のテキスト文で訓練されたアラビア語及び方言BERTモデルで、様々な下流NLPタスクをサポートします。
大規模言語モデル アラビア語
B
ahmedabdelali
16
2
Berdou 500k
Bertimbau-Baseモデルをブラジル連邦政府公報50万件のインスタンスでMLM(マスク言語モデリング)ファインチューニングしたポルトガル語BERTモデル
大規模言語モデル
Transformers

B
flavio-nakasato
16
0
Opus Mt En Ine
Apache-2.0
これはTransformerアーキテクチャに基づく多言語機械翻訳モデルで、英語から様々なインド・ヨーロッパ語族の言語への翻訳タスクをサポートしています。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
83
0
Mbart Large 50 Finetuned Opus En Pt Translation
このモデルは、mBART - 50大型モデルをopus100データセットで英語からポルトガル語への翻訳タスクに合わせて微調整したバージョンで、高品質のバイリンガル翻訳をサポートします。
機械翻訳
Transformers 複数言語対応

M
Narrativa
87
12
Opus Mt En Mul
Apache-2.0
これはTransformerアーキテクチャに基づく英語から多言語への神経機械翻訳モデルで、100種以上の目標言語の翻訳タスクをサポートします。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
3,235
21
Rubert Base Cased Conversational
OpenSubtitles、Dirty、PikabuおよびTaigaコーパスのソーシャルメディアセクションを基に訓練されたロシア語対話モデル
大規模言語モデル その他
R
DeepPavlov
165.49k
20
Sroberta F
Apache-2.0
43GBのクロアチア語とセルビア語データセットで訓練されたRoBERTaモデルで、マスク言語モデルタスクをサポートします。
大規模言語モデル
Transformers その他

S
Andrija
51
2
Gpt2 Large Bne
Apache-2.0
スペイン国立図書館(BNE)のデータを基に訓練されたGPT2 - largeのスペイン語言語モデル
大規模言語モデル
Transformers スペイン語

G
PlanTL-GOB-ES
899
12
Gpt2 Base Bne
Apache-2.0
これはGPT - 2アーキテクチャに基づくスペイン語言語モデルで、スペイン国立図書館の2009 - 2019年のウェブクローリングデータを使って訓練されています。
大規模言語モデル
Transformers スペイン語

G
PlanTL-GOB-ES
4,049
12
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98