F5 TTS Arabic
F5-TTSを微調整した高品質なアラビア語音声合成モデルで、地域ごとの発音やアクセントの多様性をサポート
音声合成 複数言語対応
F
IbrahimSalah
104
11
Arabic Speech Syllables Recognition Using Wav2vec2
これはwav2vec2ベースのアラビア語音節認識モデルで、音声から現代標準アラビア語の音節を認識できます。
音声認識
Transformers アラビア語

A
IbrahimSalah
78
1
Arbertv2
ARBERTv2は、現代標準アラビア語(MSA)をベースに訓練されたアップグレード版のBERTモデルで、訓練コーパスは243GBのテキストで、278億のトークンを含んでいます。
大規模言語モデル
Transformers アラビア語

A
UBC-NLP
267
6
Arabicner Wojood
MIT
Wojoodはアラビア語のネストされた固有表現認識(NER)のためのコーパスで、55万語例(現代標準アラビア語及び方言)を含みます。
シーケンスラベリング
Transformers アラビア語

A
SinaLab
19
9
Arabartsummarization
Apache-2.0
AraBERTベースのアラビア語テキスト要約生成モデルで、現代標準アラビア語のニュース見出し生成とテキスト要約タスクに特化しています。
テキスト生成
Transformers アラビア語

A
abdalrahmanshahrour
71
6
Arabart Summ
Apache-2.0
AraBERTベースのアラビア語テキスト要約生成モデルで、現代標準アラビア語のニュース見出し生成とテキスト書き換えをサポート
テキスト生成
Transformers アラビア語

A
abdalrahmanshahrour
22
3
Bert Base Arabic Camelbert Msa Pos Msa
Apache-2.0
現代標準アラビア語の品詞タグ付けモデルで、CAMeLBERT-MSAをファインチューニングして構築され、PATBデータセットで訓練されています
シーケンスラベリング
Transformers アラビア語

B
CAMeL-Lab
31
0
Bert Base Arabic Camelbert Msa Ner
Apache-2.0
CAMeLBERT現代標準アラビア語(MSA)モデルを微調整した固有表現認識モデルで、アラビア語テキスト用に設計されています。
シーケンスラベリング
Transformers アラビア語

B
CAMeL-Lab
4,248
5
Bert Base Arabic Camelbert Msa
Apache-2.0
CAMeLBERTはアラビア語NLPタスク向けの事前学習モデルセットで、このモデルは現代標準アラビア語(MSA)のバリエーションで、126億のトークンで学習されています。
大規模言語モデル アラビア語
B
CAMeL-Lab
1,212
9
Bert Base Arabic Camelbert Mix Pos Msa
Apache-2.0
CAMeLBERT-Mixを微調整した現代標準アラビア語の品詞タグ付けモデルで、PATBデータセットを使用して訓練されました。
シーケンスラベリング
Transformers アラビア語

B
CAMeL-Lab
9,341
1
Bert Base Arabic Camelbert Msa Sixteenth
Apache-2.0
アラビア語NLPタスク用の事前学習モデルで、縮小規模(1/16)の現代標準アラビア語(MSA)データセットで学習されました。
大規模言語モデル アラビア語
B
CAMeL-Lab
215
4
Bert Base Arabic Camelbert Msa Sentiment
Apache-2.0
CAMeLBERTの現代標準アラビア語モデルを微調整した感情分析モデルで、アラビア語テキストの感情分類をサポートします。
テキスト分類
Transformers アラビア語

B
CAMeL-Lab
929
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98