Khmer Sentiment Xlm Roberta Base
MIT
クメール語金融テキスト向けに最適化された感情分析モデル、ポジティブ/ネガティブ感情を分類可能
テキスト分類
Transformers その他

K
songhieng
31
1
Multilingual Albert Base Cased 128k
Apache-2.0
マスク言語モデリング(MLM)目標で事前学習された多言語ALBERTモデルで、60種以上の言語をサポートし、パラメータ共有の軽量アーキテクチャを持つ
大規模言語モデル
Transformers 複数言語対応

M
cservan
277
2
Multilingual Albert Base Cased 32k
Apache-2.0
マスク言語モデリングの目的で事前学習された多言語ALBERTモデルで、50種以上の言語をサポートし、大文字小文字を区別します。
大規模言語モデル
Transformers 複数言語対応

M
cservan
243
2
Umt5 Xxl
Apache-2.0
UMT5はmC4多言語コーパスで事前学習された多言語テキスト生成モデルで、107言語をサポートし、UniMaxサンプリング戦略により言語バランスを最適化
大規模言語モデル
Transformers 複数言語対応

U
google
4,449
32
Umt5 Xl
Apache-2.0
mC4多言語コーパスに基づく事前学習済み多言語テキスト生成モデル、107言語をサポート
大規模言語モデル
Transformers 複数言語対応

U
google
1,049
17
Umt5 Small
Apache-2.0
mC4多言語コーパスに基づく事前学習済みの統一多言語T5モデルで、107言語をカバー
大規模言語モデル
Transformers 複数言語対応

U
google
17.35k
23
Codegen 350m Html
Bsd-3-clause
CodeGen-HTML 350MはCodeGen-Multi 350Mをファインチューニングした自己回帰言語モデルで、HTMLコード生成に特化しています。
大規模言語モデル
Transformers その他

C
alecsharpie
132
14
Infoxlm German Question Answering
InfoXLM-largeをファインチューニングしたドイツ語質問応答システムモデルで、GermanQuADとSQuADデータセットで学習
質問応答システム
Transformers ドイツ語

I
svalabs
145
3
Persian Xlm Roberta Large
XLM-RoBERTA多言語事前学習モデルをベースに、ペルシャ語QAデータセットPQuADでファインチューニングされたQAモデル
質問応答システム
Transformers

P
pedramyazdipoor
77
3
Xlm Roberta Base Finetuned Panx Fr
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたフランス語タグ分類モデル
シーケンスラベリング
Transformers

X
andreaschandra
16
0
Wav2vec2 Large Xlsr 53 842h Luxembourgish 14h
MIT
842時間の未ラベルデータと14時間のラベル付きルクセンブルク語音声データでファインチューニングされたwav2vec2.0大規模モデル。ルクセンブルク語音声認識をサポート
音声認識
Transformers その他

W
Lemswasabi
204
0
Mt5 Base Dacsa Es
このモデルはmT5ベースモデルをスペイン語テキスト要約タスク向けに微調整したバージョンで、特にニュース記事の要約生成に適しています。
テキスト生成
Transformers スペイン語

M
ELiRF
154
2
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング
Transformers

X
novarac23
17
0
Wav2vec2 Large Xlsr 53 Toy Train Data Augment 0.1.csv
Apache-2.0
このモデルはfacebook/wav2vec2-baseを微調整した音声認識モデルで、データ拡張技術を使用して訓練されています
音声認識
Transformers

W
scasutt
22
0
Wav2vec2 Xlsr Multilingual 53 Fa
wav2vec 2.0アーキテクチャに基づく多言語音声認識モデルで、ペルシア語向けに特別にファインチューニングされており、単語誤り率を大幅に低減
音声認識
Transformers

W
masoudmzb
83
7
Wav2vec2 Base 10k Voxpopuli Ft Fi
Facebook Wav2Vec2基本モデルに基づき、VoxPopuliコーパスの10K未ラベルサブセットで事前学習され、フィンランド語転写データでファインチューニングされた自動音声認識モデルです。
音声認識
Transformers その他

W
facebook
24
0
Phoneme Test 5 Sv
Apache-2.0
このモデルは、facebook/wav2vec2 - xls - r - 300mをMULTILINGUAL_LIBRISPEECH - ドイツ語10時間データセットで微調整したバージョンで、ドイツ語音声認識タスクに使用されます。
音声認識
Transformers

P
patrickvonplaten
17
0
Tf Xlm Roberta Base
XLM-RoBERTaは100言語の2.5Tデータで訓練された言語横断文エンコーダーの拡張版で、複数の言語横断ベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers

T
jplu
4,820
1
Infoxlm Base
InfoXLMは、情報理論に基づく多言語事前学習フレームワークであり、多言語タスクにおける相互情報量を最大化することでモデルの性能を向上させることを目的としています。
大規模言語モデル
Transformers

I
microsoft
20.30k
7
Cino Base V2
Apache-2.0
CINOは中国の少数民族言語に対応した多言語事前学習モデルで、中国語と7種類の少数民族言語をサポートし、XLM - Rフレームワークに基づいて構築されています。
大規模言語モデル
Transformers 複数言語対応

C
hfl
156
5
Infoxlm Large
InfoXLMは、情報理論に基づく多言語事前学習フレームワークであり、異なる言語間の相互情報量を最大化することで、多言語表現学習の効果を向上させることを目的としています。
大規模言語モデル
Transformers

I
microsoft
1.1M
12
Mbart Large 50 Many To Many Mmt
mBART-large-50をファインチューニングした多言語機械翻訳モデルで、50言語間の相互翻訳をサポート
機械翻訳 複数言語対応
M
facebook
404.66k
357
Wav2vec2 Base 10k Voxpopuli Ft Sk
VoxPopuliコーパスの10Kの未ラベルデータで事前学習され、スロバキア語の転写データでファインチューニングされた音声認識モデル
音声認識
Transformers その他

W
facebook
39
1
Wav2vec2 Base 10k Voxpopuli Ft Nl
Facebook Wav2Vec2アーキテクチャに基づく音声認識モデルで、VoxPopuliコーパスの10K時間の未ラベルオランダ語データで事前学習され、オランダ語文字起こしデータでファインチューニングされています。
音声認識
Transformers その他

W
facebook
28
0
Wav2vec2 Base 10k Voxpopuli Ft Pl
VoxPopuliコーパスの10Kの未ラベルデータで事前学習され、ポーランド語の転写データでファインチューニングされたWav2Vec2音声認識モデル
音声認識
Transformers その他

W
facebook
203
3
Wav2vec2 Large Xlsr Turkish Demo
このモデルはトルコ語Common VoiceデータセットでファインチューニングされたXLSR-Wav2Vec2音声認識モデルで、主にトルコ語音声からテキストへの変換タスクに使用されます。
音声認識
W
patrickvonplaten
18
0
Wav2vec2 Base 10k Voxpopuli Ft Cs
Facebook Wav2Vec2アーキテクチャに基づく音声認識モデルで、VoxPopuliコーパスの10Kラベルなしチェコ語データで事前学習され、チェコ語転写データでファインチューニングされています。
音声認識
Transformers その他

W
facebook
226
0
Xlm Roberta Large Ner Spanish
XLM - Roberta - largeアーキテクチャに基づいて微調整されたスペイン語の命名エンティティ認識モデルで、CoNLL - 2002データセットで優れた性能を発揮します。
シーケンスラベリング
Transformers スペイン語

X
MMG
767.35k
29
Xlm Roberta Large Finetuned Conll03 German
XLM - RoBERTa - largeモデルをドイツ語のCoNLL - 2003データセットで微調整した多言語命名エンティティ認識モデル
シーケンスラベリング 複数言語対応
X
FacebookAI
18.52k
13
Xlm Roberta Large Finetuned Conll02 Spanish
XLM - RoBERTa - largeモデルを基に、スペイン語CoNLL - 2002データセットで微調整した固有表現認識モデル
シーケンスラベリング 複数言語対応
X
FacebookAI
244
2
Xlm Roberta Large
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標を用いて訓練されています。
大規模言語モデル 複数言語対応
X
FacebookAI
5.3M
431
Xlm Mlm 17 1280
XLMモデルは17言語のテキストを用いて学習された言語間事前学習モデルで、マスク言語モデリング(MLM)の目標を採用しています。
大規模言語モデル
Transformers 複数言語対応

X
FacebookAI
201
2
Xlm Roberta Base English Upos
XLM - RoBERTaに基づく英語の品詞タグ付けと依存構文解析モデル
シーケンスラベリング
Transformers 複数言語対応

X
KoichiYasuoka
21
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98