Csebuetnlp Mt5 Multilingual XLSum
mT5アーキテクチャに基づく多言語要約生成モデルで、45言語をサポートし、XL-Sumデータセットでファインチューニングされています。
テキスト生成 複数言語対応
C
MaagDeveloper
14
0
T5 Small Q4 K M GGUF
Apache-2.0
このモデルはggml.aiのGGUF-my-repoスペースを使用し、llama.cppによってgoogle-t5/t5-smallからGGUF形式に変換された量子化バージョンです。
機械翻訳 複数言語対応
T
egrhfnfdg
25
0
T5 Summary En Ru Zh Large 2048
Apache-2.0
これはT5アーキテクチャに基づく多言語テキスト要約および翻訳モデルで、英語、ロシア語、中国語の3言語をサポートし、異なる長さの要約を生成し、クロスランゲージ翻訳が可能です。
大規模言語モデル
Safetensors 複数言語対応
T
utrobinmv
19.05k
2
Mt5 Small Finetuned Amazon En Es
Apache-2.0
google/mt5-smallモデルを未知のデータセットで微調整したバージョンで、主に英語からスペイン語への要約生成タスクに使用されます。
機械翻訳
Transformers

M
NagaRamya
13
0
T5 Small Q8 0 GGUF
Apache-2.0
このモデルはggml.aiのGGUF-my-repoスペースを使用し、llama.cppによってgoogle-t5/t5-smallからGGUF形式に変換された量子化バージョンです。
機械翻訳 複数言語対応
T
agkavin
27
1
T5 3b Q4 K M GGUF
Apache-2.0
このモデルはggml.aiのGGUF-my-repoスペースを使用し、llama.cppによってgoogle-t5/t5-3bからGGUF形式に変換された量子化バージョンです。
機械翻訳 複数言語対応
T
VVS2024
15
0
T5 Summary En Ru Zh Base 2048
Apache-2.0
これはT5ベースのマルチタスクモデルで、英語、ロシア語、中国語のテキスト要約生成と相互翻訳機能をサポートし、指示に応じて異なる長さの要約内容を生成できます。
大規模言語モデル
Transformers 複数言語対応

T
utrobinmv
7,032
42
Vietnamese FlanT5 Large
Apache-2.0
Flan-T5-Largeをベースにした多言語シーケンス・ツー・シーケンスモデルで、ベトナム語、英語、中国語をサポートし、要約生成、翻訳、質問応答などのタスクに適しています。
大規模言語モデル
Transformers 複数言語対応

V
Hatto
116
4
Sinmt5 Tuned
GoogleのmT5モデルを未知のデータセットでファインチューニングした要約生成モデルで、多言語テキスト要約タスクをサポート
テキスト生成
Transformers

S
Hamza-Ziyard
53
0
PISCES
PISCESは、3段階の事前学習プロセスを通じて言語モデリング、クロスリンガル能力、要約生成能力を習得した事前学習済み多言語要約生成モデルです。
テキスト生成
Transformers

P
Krystalan
15
1
Mt5 Multilingual XLSum Rust
XL-Sumデータセットで45言語にファインチューニングされたmT5モデルで、多言語要約生成タスク用です。
テキスト生成 複数言語対応
M
spursyy
18
3
Mt5 Small Finetuned 28jan 2
Apache-2.0
google/mt5-smallを微調整したテキスト要約生成モデルで、多言語テキスト要約タスクをサポートします。
テキスト生成
Transformers

M
mqy
14
0
Bartkrame Abstract Mt5
Apache-2.0
google/mt5-smallをファインチューニングした要約生成モデルで、多言語テキスト要約タスクをサポート
テキスト生成
Transformers

B
krm
14
0
Mbart Large 50 Finetuned V1
mbart-large-50アーキテクチャに基づくファインチューニングモデルで、多言語要約生成タスクに適しています
大規模言語モデル
Transformers

M
z-rahimi-r
14
0
Mt5 Base Finetuned Ar Sp
Apache-2.0
google/mt5-baseをファインチューニングした多言語要約生成モデルで、アラビア語、スペイン語、アムハラ語の抽象的な要約タスクをサポート
テキスト生成
Transformers 複数言語対応

M
eslamxm
29
0
T5 Small Onnx
Apache-2.0
T5-smallモデルのONNX形式エクスポート版で、多言語テキスト生成と翻訳タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

T
echarlaix
18
3
Mt5 Base Finetuned English Finetuned English Arabic
Apache-2.0
MT5アーキテクチャに基づくアラビア語-英語要約生成モデル、xlsumデータセットでファインチューニング済み
テキスト生成
Transformers 複数言語対応

M
eslamxm
27
0
Mt5 M2o Chinese Simplified Crosssum
CrossSumデータセットでファインチューニングされたmT5多対一モデルで、複数言語で書かれたテキストを中国語(簡体字)で要約できます
テキスト生成
Transformers 複数言語対応

M
csebuetnlp
43
20
Mt5 M2o Arabic Crosssum
CrossSumデータセットでファインチューニングされたmT5多対一モデルで、複数言語のテキストをアラビア語に要約できます
テキスト生成
Transformers 複数言語対応

M
csebuetnlp
370
3
Mt5 M2o Hindi Crosssum
CrossSumデータセットでファインチューニングされたmT5多対一要約モデルで、複数言語のテキストをヒンディー語に要約することが可能
テキスト生成
Transformers 複数言語対応

M
csebuetnlp
22
0
Mt5 M2m Crosssum
CrossSumデータセットでファインチューニングされた多言語要約生成モデルで、45言語間の言語間要約生成をサポート
テキスト生成
Transformers 複数言語対応

M
csebuetnlp
57
8
Mt5 Multilingual XLSum
XL-Sumデータセット45言語でファインチューニングされたmT5モデル、多言語要約生成タスク用
テキスト生成
Transformers 複数言語対応

M
csebuetnlp
73.34k
293
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98