Quadrifoglio Mt En It
Apache-2.0
bigscience/mt0-smallアーキテクチャに基づくエンコーダ-デコーダトランスフォーマーモデルで、英語-イタリア語テキスト翻訳に特化
機械翻訳
Transformers 複数言語対応

Q
puettmann
29
2
Kubert Central Kurdish BERT Model
KuBERTはBERTフレームワークに基づく中央クルド語モデルで、クルド語リソース不足の問題を解決し、計算言語学の能力を向上させることを目的としています。
大規模言語モデル
Transformers

K
asosoft
128.71k
5
Asr Crdnn German
Mozilla Common Voice 6.1、ドイツ語ウィキペディア音声コーパスおよびm-ailabsコーパスで訓練されたドイツ語ASRモデル、単語誤り率7.24%
音声認識 ドイツ語
A
jfreiwa
17
2
Translation En Pt T5
英語-ポルトガル語翻訳タスク向けT5モデル実装、軽量ハードウェア構成を採用し、トークナイザーと後処理プロセスの改良により翻訳品質を向上
機械翻訳
Transformers 複数言語対応

T
unicamp-dl
8,824
20
Legal T5 Small Trans Cs Sv
チェコ語の法律テキストをスウェーデン語に翻訳するための小型T5モデル
機械翻訳
L
SEBIS
17
0
Opus Mt Es Csn
Apache-2.0
Transformerアーキテクチャに基づくスペイン語(es)からコルシカ語(csn)への機械翻訳モデルで、Helsinki-NLPチームによって開発され、OPUSデータセットで訓練されました。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
16
0
Legal T5 Small Multitask Sv It
このモデルは、法律テキストをスウェーデン語からイタリア語に翻訳するために使用され、翻訳タスクと教師なしタスクを含むマルチタスク学習シナリオを組み合わせています。
機械翻訳
L
SEBIS
21
0
Legal T5 Small Trans Fr Es
このモデルはフランス語の法律文書をスペイン語に翻訳するために使用され、t5-smallアーキテクチャに基づいて訓練されており、法律文書の翻訳タスクに適しています。
機械翻訳
L
SEBIS
18
0
Opus Mt Crs En
Apache-2.0
Transformerアーキテクチャに基づく機械翻訳モデルで、セーシェル・クレオール語(crs)から英語(en)への翻訳に使用されます
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
13
0
Legal T5 Small Trans Fr En
法律テキストのフランス語から英語への翻訳に特化した小型T5モデル
機械翻訳
L
SEBIS
73
1
Opus Mt En St
Apache-2.0
opus-mt-en-st はTransformerアーキテクチャに基づく機械翻訳モデルで、英語を南ソト語(Southern Sotho)に翻訳するために特別に設計されています。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
58
1
Opus Mt Tll Fr
Apache-2.0
これはTransformerアーキテクチャに基づく機械翻訳モデルで、ソース言語(tll)をターゲット言語(fr)に翻訳するために使用されます。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
50
0
Legal T5 Small Trans De En
このモデルは法律文書をドイツ語から英語に翻訳するために使用され、t5-smallアーキテクチャで訓練されており、法律文書翻訳タスクに適しています。
機械翻訳
L
SEBIS
18
0
Legal T5 Small Trans Es En Small Finetuned
このモデルは、法律テキストをスペイン語から英語に翻訳するために使用され、T5-smallアーキテクチャに基づいて最適化訓練されています。
機械翻訳
L
SEBIS
44
0
Legal T5 Small Trans De Es
このモデルは、法律テキストをドイツ語からスペイン語に翻訳するために使用され、t5-smallアーキテクチャに基づいて訓練され、法律分野の専門的な翻訳タスクに適しています。
機械翻訳
L
SEBIS
14
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98