Nllb 200 Distilled 600M Wo Fr En
MIT
このモデルはNLLB-200-distilled-600Mをファインチューニングした多言語翻訳モデルで、ウォロフ語、フランス語、英語間の双方向翻訳に特化して最適化されています。
機械翻訳
Transformers 複数言語対応

N
bilalfaye
114
2
Translate Nllb 1.3b Salt
NLLB-200-1.3Bを基にした多言語機械翻訳モデルで、英語と5つのアフリカ言語間の相互翻訳をサポート
機械翻訳
Transformers

T
Sunbird
2,588
1
T5 Translate En Ru Zh Base 200
Apache-2.0
T5アーキテクチャに基づく多言語翻訳モデルで、ロシア語、中国語、英語間の双方向翻訳をサポートします。
機械翻訳
Transformers 複数言語対応

T
utrobinmv
500
10
T5 Translate En Ru Zh Small 1024
Apache-2.0
T5アーキテクチャに基づく多言語翻訳モデルで、ロシア語、中国語、英語間の双方向相互翻訳をサポート
機械翻訳
Transformers 複数言語対応

T
utrobinmv
2,405
34
English Tamil Mt
Openrail
M2M100アーキテクチャに基づく英語とタミル語の双方向翻訳モデルで、OpenRAILライセンスで公開されています
機械翻訳
Transformers 複数言語対応

E
Hemanth-thunder
140
5
Opus Mt Ine Ine
Apache-2.0
136種類の印欧語族言語の相互翻訳をサポートするTransformerモデルで、Helsinki-NLPチームがOPUS多言語データを基に訓練しました。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
67
0
Opus Mt En Mul
Apache-2.0
これはTransformerアーキテクチャに基づく英語から多言語への神経機械翻訳モデルで、100種以上の目標言語の翻訳タスクをサポートします。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
3,235
21
Opus Mt Itc Itc
Apache-2.0
複数のイタリック語族言語間の相互翻訳をサポートするTransformerモデルで、Helsinki-NLPチームによって開発されました。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
27
0
Opus Mt NORTH EU NORTH EU
Apache-2.0
ドイツ語、オランダ語および北欧の主要言語間の相互翻訳をサポートするTransformer-alignモデル。OPUSデータセットを基に訓練されています。
機械翻訳
Transformers その他

O
Helsinki-NLP
39
2
Opus Mt Gmw Gmw
Apache-2.0
18種類の西ゲルマン語支言語間の双方向相互翻訳をサポートする、Transformerアーキテクチャに基づく機械翻訳モデル
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
275
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98