T5 Small Finetuned Xsum
Apache-2.0
T5-smallモデルをXSumデータセットでファインチューニングしたテキスト要約モデル
テキスト生成
Transformers

T
bdwjaya
103
0
T5 Small Title Ft
Apache-2.0
T5 Small は Google がリリースした T5(Text-to-Text Transfer Transformer)モデルの小型バージョンで、さまざまな自然言語処理タスクに適しています。
テキスト生成
Transformers 英語

T
swarup3204
25
0
Finetuned T5 Small Abstract Summarizer
長文からキー情報を抽出し簡潔な要約を生成するテキスト要約生成タスクに特化したモデル
テキスト生成
F
JyothiYaga
15
0
Jina Embeddings V3 Gguf
このモデルは要約生成モデルで、入力テキストの簡潔な要約を自動生成できます。
テキスト生成
J
jetuned
221
0
GPT2 Summarizer
MIT
GPT-2アーキテクチャをファインチューニングしたテキスト要約モデルで、PyTorchとCoreMLフレームワークをサポートし、簡潔で正確なテキスト要約の生成に適しています。
テキスト生成
Transformers

G
c2p-cmd
30
0
Summllama3.2 3B GGUF
SummLlama3.2-3BはLlama3アーキテクチャを最適化した3.2Bパラメータの要約生成モデルで、様々なハードウェアニーズに対応する複数の量子化バージョンを提供します。
大規模言語モデル
S
tensorblock
95
1
Bart Large Cnn
MIT
これはfacebook/bart-large-cnnモデルのONNX最適化バージョンで、主にテキスト要約タスクに使用されます。
テキスト生成
Transformers

B
philipp-zettl
15
0
T5 Small Common Corpus Topic Batch
Apache-2.0
T5-smallアーキテクチャをファインチューニングしたテキスト処理モデルで、特定タスクのテキスト生成と変換に特化
大規模言語モデル
Transformers

T
Pclanglais
21
2
T5 Small
T5-smallアーキテクチャに基づくファインチューニングモデルで、主にテキスト生成タスクに使用され、ROUGE指標では平均的な性能
大規模言語モデル
Transformers

T
Hafis123
30
1
Distilbart Cnn 12 6
DistilBART-CNN-12-6はBARTモデルの蒸留版で、テキスト要約タスクに最適化されており、サイズが小さいながらも高い性能を維持しています。
テキスト生成
Transformers

D
Xenova
218
0
Flan T5 Base Summarization
FLAN-T5ベースのテキスト要約モデルで、英語テキストの自動要約生成に適しています。
テキスト生成
Transformers 英語

F
marianna13
148
3
Bart Large Cnn
BARTアーキテクチャに基づく大規模テキスト要約モデルで、CNN/DailyMailデータセットに最適化されています
テキスト生成
Transformers

B
Xenova
173
8
Distilbart Cnn 12 6 Finetuned Weaksup 1000
Apache-2.0
distilbart-cnn-12-6モデルを微調整したテキスト要約生成モデルで、弱教師ありデータで1000ステップ訓練
テキスト生成
Transformers

D
cammy
79
1
Swe Gpt Wiki
これはFlax CLMプロセスに基づいて訓練されたスウェーデン語のGPT2スタイルのモデルで、訓練データはwiki40bデータセットのスウェーデン語部分から取得されます。
大規模言語モデル その他
S
flax-community
24
3
Distilroberta Base Model Transcript
Apache-2.0
distilroberta-baseモデルをファインチューニングしたテキスト処理モデルで、汎用NLPタスクに適しています
大規模言語モデル
Transformers

D
mahaamami
14
0
Bart Tl Ng
Apache-2.0
BARTベースの弱教師ありハッシュタグ生成モデル、生成アプローチでトピックラベリングタスクを解決
テキスト生成
Transformers 英語

B
cristian-popa
189
4
Kogpt2 Base V2
KoGPT2はSKT-AIによって開発された韓国語GPT-2モデルで、Transformerアーキテクチャに基づいており、さまざまな韓国語テキスト生成タスクに適しています。
大規模言語モデル 韓国語
K
skt
105.25k
47
Keybart
Apache-2.0
KeyBARTはBARTアーキテクチャに基づいて事前学習されたテキスト生成モデルで、CatSeqD形式に合致した連結キーフレーズシーケンスの生成に特化しています。
大規模言語モデル
Transformers

K
bloomberg
737
40
Pino Bigbird Roberta Base
PinoはBigBirdアーキテクチャに基づくオランダ語の事前学習モデルで、疎な注意力機構を用いて長シーケンスのテキストを処理し、最大4096のシーケンス長をサポートします。
大規模言語モデル その他
P
flax-community
17
2
Distilbart Cnn 6 6
Apache-2.0
DistilBARTはBARTモデルの蒸留版で、テキスト要約タスクに最適化されており、高い性能を維持しながら推論速度を大幅に向上させます。
テキスト生成 英語
D
sshleifer
48.17k
31
Pegasus Large
PEGASUSはGoogle Researchが開発した、事前学習と間隔文抽出に基づく抽象的要約生成モデルです。
テキスト生成 英語
P
google
43.35k
103
Distilbart Xsum 1 1
Apache-2.0
DistilBARTはBARTモデルの蒸留バージョンで、テキスト要約タスクに最適化されており、高い性能を維持しながらモデルサイズと推論時間を大幅に削減します。
テキスト生成 英語
D
sshleifer
2,198
0
T5 Small Finetuned Xsum
Apache-2.0
T5-smallモデルを未知のデータセットで微調整したテキスト要約モデルで、簡潔な要約の生成に長けています。
大規模言語モデル
Transformers

T
Rocketknight1
38
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98