T5 Summary En Ru Zh Large 2048
Apache-2.0
これはT5アーキテクチャに基づく多言語テキスト要約および翻訳モデルで、英語、ロシア語、中国語の3言語をサポートし、異なる長さの要約を生成し、クロスランゲージ翻訳が可能です。
大規模言語モデル
Safetensors 複数言語対応
T
utrobinmv
19.05k
2
Mitre 913m
MIT
MITREは多言語対応のデコーダのみのモデルで、多対多翻訳タスク向けに設計されており、5つの語族にまたがる24言語間の552方向の直接翻訳をサポートしています。
機械翻訳 複数言語対応
M
naist-nlp
54
3
Nllb 200 3.3B Ct2 Int8
100以上の言語と文字体系をサポートする多言語処理モデルで、主流言語からさまざまな方言や少数民族言語までカバーしています
大規模言語モデル
Transformers 複数言語対応

N
OpenNMT
65
5
Vietnamese FlanT5 Large
Apache-2.0
Flan-T5-Largeをベースにした多言語シーケンス・ツー・シーケンスモデルで、ベトナム語、英語、中国語をサポートし、要約生成、翻訳、質問応答などのタスクに適しています。
大規模言語モデル
Transformers 複数言語対応

V
Hatto
116
4
Wspalign Mbert Base
WSPAlignは大規模な弱教師付きスパン予測に基づく単語アライメント事前学習モデルで、複数の言語間の単語アライメントタスクをサポートします。
機械翻訳
Transformers 複数言語対応

W
qiyuw
200
0
Wspalign Xlm Base
WSPAlignは大規模な弱教師付きスパン予測に基づく単語アライメント事前学習モデルで、複数の言語ペアの単語アライメントタスクをサポートします。
機械翻訳
Transformers 複数言語対応

W
qiyuw
77
0
Nllb 200 Distilled 1.3B Ct2 Int8
100以上の言語と文字をサポートする多言語処理モデルで、主流言語からさまざまな方言や地域変種までカバーしています。
大規模言語モデル
Transformers 複数言語対応

N
JustFrederik
67
2
Nllb 200 Distilled 600M Ct2 Int8
NLLBは200言語をサポートする多言語機械翻訳モデルで、世界中の大多数の言語、特にリソースが少ない言語をカバーすることを目的としています。
機械翻訳
Transformers 複数言語対応

N
JustFrederik
144
0
Nllb 200 Distilled 600M
100以上の言語と文字をサポートする多言語処理モデルで、世界の主要な語族と文字システムをカバーしています。
大規模言語モデル
Transformers 複数言語対応

N
facebook
483.68k
638
Rut5 Base Multitask
MIT
GoogleのMT5をベースにしたロシア語・英語対応の簡素化モデルで、翻訳、言い換え、穴埋めなど10種類のテキストタスクをサポート
大規模言語モデル 複数言語対応
R
cointegrated
2,076
42
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98