# BARTアーキテクチャ

Tessar Largest
MIT
TessarはSVECTORが開発した先進的なテーブル推論モデルで、画期的な研究成果に基づき、ニューラルテーブル理解の境界を拡張し続けています。
質問応答システム 英語
T
SVECTOR-CORPORATION
101
1
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNNはBARTアーキテクチャに基づく事前学習モデルで、テキスト要約生成タスクに特化しています。
テキスト生成 英語
B
vapit
17
0
Text Summarize BartBaseCNN Finetune
MIT
BARTアーキテクチャに基づくテキスト要約モデルで、英語の科学論文の要約生成タスクに適しています。
テキスト生成 Transformers 英語
T
GilbertKrantz
0
0
Bart Medtranscription
Apache-2.0
BARTアーキテクチャに基づく大規模な要約生成モデルで、医学文献要約タスクに特化して最適化されています
テキスト生成 Transformers 英語
B
Ram20307
148
1
Kobart Summary V3
kobartモデルをファインチューニングした韓国語テキスト要約モデルで、より多くの短文を含む要約テキストを生成します
テキスト生成 Transformers 韓国語
K
EbanLee
5,139
17
Bart Finetuned Text Summarization
MIT
BARTアーキテクチャを基に微調整されたテキスト要約モデルで、簡潔で正確な要約を生成するために設計されています
テキスト生成 Transformers 英語
B
suriya7
1,547
9
Tapex Large Finetuned Qtsumm
MIT
BARTアーキテクチャに基づく表要約生成モデルで、クエリ焦点型の表要約タスクに最適化されています。
テキスト生成 Transformers 英語
T
yale-nlp
18
0
Mentalbart
MIT
MentalBARTはfacebook/bart-largeを微調整したメンタルヘルス分析モデルで、MentaLLaMAプロジェクトの一部であり、説明可能なメンタルヘルス分析に特化しています。
大規模言語モデル Transformers 英語
M
Tianlin668
1,755
2
Autotrain Summarization Bart Longformer 54164127153
AutoTrainプラットフォームでトレーニングされたテキスト要約生成モデル、BART-Longformerアーキテクチャを採用
テキスト生成 Transformers その他
A
Udit191
16
0
Arabart Finetuned Wiki Ar
Apache-2.0
AraBARTをアラビア語ウィキデータセットで微調整した翻訳モデル
機械翻訳 Transformers
A
Jezia
382
0
Led Base 16384 Billsum Summarization
このモデルはbillsumデータセットでled-base-16384をファインチューニングしたバージョンで、長文要約生成タスク専用です。
テキスト生成 Transformers 複数言語対応
L
AlgorithmicResearchGroup
15
1
Omnitab Large
OmniTabはBARTアーキテクチャに基づく表質問答モデルで、自然データと合成データの事前学習により少数サンプルでの表質問答能力を実現
質問応答システム Transformers 英語
O
neulab
158
2
Omnitab Large Finetuned Wtq
OmniTabは表ベースの質問応答モデルで、自然および合成データによる事前学習を通じて少数ショットの表質問応答能力を実現しています。
質問応答システム Transformers 英語
O
neulab
55
7
Bart Base Few Shot K 256 Finetuned Squad Seed 2
Apache-2.0
BART-baseアーキテクチャに基づき、SQuADデータセットでファインチューニングされた質問応答モデルで、少数ショット学習シナリオに適しています
質問応答システム Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
BART-baseアーキテクチャに基づき、SQuADデータセットでファインチューニングされた質問応答モデルで、読解タスクに適しています。
質問応答システム Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 0
Apache-2.0
facebook/bart-baseモデルをSQuADデータセットでファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム Transformers
B
anas-awadalla
13
0
CGRE CNDBPedia Generative Relation Extraction
CGREはBARTベースの中国語エンドツーエンド関係抽出モデルで、生成的手法を用いてエンティティ関係抽出を実現し、複数の中国語関係抽出データセットで優れた性能を発揮します。
知識グラフ Transformers
C
fanxiao
63
3
Tapex Base Finetuned Wtq
MIT
TAPEXはニューラルSQLエグゼキュータを通じて学習する表事前学習モデルで、表質問応答タスク専用に設計されています。
質問応答システム Transformers 英語
T
microsoft
162
11
Tapex Large Sql Execution
MIT
TAPEXは、ニューラルSQLエグゼキュータの学習を通じて表事前学習を実現するモデルで、BARTアーキテクチャに基づき、表推論タスク向けに設計されています。
大規模言語モデル Transformers 英語
T
microsoft
68
17
Tapex Large Finetuned Wtq
MIT
TAPEXは、ニューラルSQLエグゼキュータを学習することでテーブル事前学習を行うモデルで、BARTアーキテクチャに基づき、表推論タスク向けに設計されています。
質問応答システム Transformers 英語
T
microsoft
2,431
74
Tapex Large
MIT
TAPEXは、ニューラルSQLエグゼキュータの学習を通じて表の事前学習を実現するモデルで、BARTアーキテクチャに基づいており、表推論タスクのために設計されています。
大規模言語モデル Transformers 英語
T
microsoft
252
9
Tapex Large Finetuned Wikisql
MIT
TAPEXはニューラルSQLエグゼキュータ学習による表事前学習モデルで、BARTアーキテクチャに基づき、表推論タスク向けに設計されています。
大規模言語モデル Transformers 英語
T
microsoft
676
16
Indobart V2
MIT
IndoBART-v2はBARTアーキテクチャに基づくインドネシア語言語モデルで、自然言語生成タスク向けに設計されています。
大規模言語モデル Transformers その他
I
indobenchmark
983
12
Tapex Base Finetuned Wikisql
MIT
TAPEXはニューラルSQLエグゼキュータの学習を通じて表の事前学習を実現するモデルで、BARTアーキテクチャに基づき、表質問応答タスク向けに設計されています。
質問応答システム Transformers 英語
T
microsoft
242
18
Indobart
MIT
IndoBARTはBARTモデルに基づく先進的なインドネシア語言語モデルで、インドネシア語関連の自然言語処理タスク用に設計されています。
大規模言語モデル Transformers
I
indobenchmark
226
2
Mbart Mlsum Automatic Summarization
MIT
mbart-large-50アーキテクチャに基づくニュース記事自動要約モデル、MLSUMフランス語ニュースデータセットでファインチューニング
テキスト生成 Transformers フランス語
M
lincoln
98
8
Tapex Large Finetuned Tabfact
MIT
TAPEXは、ニューラルSQLエグゼキュータを学習することで表の事前学習を行うモデルで、BARTアーキテクチャに基づき、表推論タスク向けに設計されています。
大規模言語モデル Transformers 英語
T
microsoft
2,255
8
Keybart
Apache-2.0
KeyBARTはBARTアーキテクチャに基づいて事前学習されたテキスト生成モデルで、CatSeqD形式に合致した連結キーフレーズシーケンスの生成に特化しています。
大規模言語モデル Transformers
K
bloomberg
737
40
Tts Hubert Cluster Bart Base
Apache-2.0
HuBERTとBARTアーキテクチャに基づく音声処理モデルで、自動音声認識(ASR)タスクをサポートします。
音声認識 Transformers 複数言語対応
T
voidful
24
1
Tapex Base
MIT
TAPEXはニューラルSQLエグゼキュータを通じて学習する表事前学習モデルで、表推論タスクを処理できます。
大規模言語モデル Transformers 英語
T
microsoft
799
43
Tapex Base Finetuned Tabfact
MIT
TAPEXは、ニューラルSQL実行器の学習を通じて表の事前学習を行うモデルで、表の推論能力に特化しています。
大規模言語モデル Transformers 英語
T
microsoft
28
0
Bart Summarisation
Apache-2.0
BART-largeアーキテクチャに基づく会話要約モデルで、SAMSum会話データセットに特化して微調整され、高品質な会話要約を生成できます。
テキスト生成 Transformers 英語
B
slauw87
4,225
59
Bart Base Detox
BARTアーキテクチャに基づくテキスト浄化モデルで、有害なテキストを中立的な表現に書き換えることが可能
機械翻訳 Transformers 英語
B
s-nlp
2,039
11
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase