Roberta Amharic Embed Medium
Apache-2.0
RoBERTaアーキテクチャに基づくアムハラ語の文変換器で、文の類似度計算と特徴抽出に使用されます。
テキスト埋め込み 英語
R
yosefw
15
1
Nllb 200 Distilled 600M Wo Fr En
MIT
このモデルはNLLB-200-distilled-600Mをファインチューニングした多言語翻訳モデルで、ウォロフ語、フランス語、英語間の双方向翻訳に特化して最適化されています。
機械翻訳
Transformers 複数言語対応

N
bilalfaye
114
2
Whosper Large V2
Apache-2.0
Whosper-large-v2は、セネガルの主要言語であるウォロフ語に特化した最先端の音声認識モデルで、OpenAIのWhisper-large-v2を基に構築されており、単語誤り率(WER)と文字誤り率(CER)を大幅に改善しています。
音声認識 複数言語対応
W
CAYTU
449
6
Speecht5 Tts Wolof
MIT
SpeechT5アーキテクチャを微調整したウォロフ語テキスト音声変換(TTS)モデル、ウォロフ語特性に適応したカスタムトークナイザーを使用
音声合成 その他
S
bilalfaye
126
1
Wav2vec2 Large Mms 1b Wolof
MIT
このモデルはfacebook/mms-1b-allをIsma/alffa_wolofデータセットでファインチューニングしたバージョンで、ウォロフ語の自動音声認識(ASR)タスク専用に設計されています。
音声認識
Safetensors その他
W
bilalfaye
50
1
Akan Whisper Model
OpenAI Whisperモデルをファインチューニングしたバージョンで、ガーナの低リソース言語であるアカン語の自動音声認識タスク向けに設計されています
音声認識
Transformers その他

A
GiftMark
354
3
Bert Medium Amharic
bert-mediumアーキテクチャに基づいて事前学習されたアムハラ語モデルで、パラメータ数は4050万で、29億トークンで学習され、より大規模な多言語モデルと匹敵する性能を持ちます。
大規模言語モデル
Transformers その他

B
rasyosef
2,661
1
Wav2vec2 Phenome Based Alffaamharic
Apache-2.0
wav2vec2ベースの音声認識モデルで、アムハラ語向けに音素レベルで微調整されています
音声認識
Transformers

W
Samuael
34
2
Xlsr 53 Bemba 5hrs
Apache-2.0
facebook/wav2vec2-large-xlsr-53をファインチューニングした音声認識モデルで、Bemba語をサポート
音声認識
Transformers

X
csikasote
25
0
Roberta Swahili News Classification
スワヒリ語ニューステキストを分類するためのRoBERTaモデルで、Google Cloud TPUv3-8でトレーニング済み
テキスト分類 その他
R
flax-community
135
0
Xlm Roberta Base Finetuned Ner Wolof
ウォロフ語の固有表現認識(NER)タスク向けのトークン分類モデル。xlm-roberta-baseをMasakhaNERデータセット(ウォロフ語部分)でファインチューニング
シーケンスラベリング
Transformers その他

X
mbeukman
49
0
Wav2vec2 Large Xls R 300m Ha Cv8
Apache-2.0
facebook/wav2vec2-xls-r-300mをCommon Voiceデータセットでファインチューニングしたハウサ語音声認識モデル
音声認識
Transformers その他

W
anuragshas
17
1
Kinyaroberta Small
これはキニャルワンダ語のデータセットに基づき、マスク言語モデリング(MLM)の目標で事前学習されたRoBERTaモデルで、大文字小文字の区別のないトークンを使用して事前学習されています。
大規模言語モデル
Transformers

K
jean-paul
38
0
Xlm Roberta Base Finetuned Swahili Finetuned Ner Swahili
このモデルはMasakhaNERデータセット(スワヒリ語部分)でファインチューニングされた固有表現認識モデルで、スワヒリ語テキストのエンティティ認識タスクに適しています。
シーケンスラベリング
Transformers その他

X
mbeukman
14
1
Wav2vec2 Luganda
Apache-2.0
Facebookのwav2vec2-large-xlsr-53モデルをファインチューニングしたルガンダ語自動音声認識システムで、Common Voiceルガンダ語データセットで7.53%のWERを達成。
音声認識
Transformers その他

W
indonesian-nlp
52
2
Tibert Base
これはティグリニャ語向けに事前学習されたBERT基礎モデルで、4000万トークンのデータセットで40エポックの事前学習を行いました。
大規模言語モデル その他
T
fgaim
28
1
Wav2vec2 Xls R 300m Wolof Lm
MIT
これはfacebook/wav2vec2-xls-r-300mをファインチューニングしたウォロフ語自動音声認識モデルで、ウォロフ語のリソース不足問題を解決することを目的としています。
音声認識
Transformers その他

W
abdouaziiz
41
4
Hausa Asr
Apache-2.0
facebook/wav2vec2-xls-r-300mを基にファインチューニングしたハウサ語自動音声認識モデル
音声認識
Transformers その他

H
Cdial
18
3
Hausa Xlsr
Apache-2.0
これはfacebook/wav2vec2-xls-r-300mをファインチューニングしたハウサ語自動音声認識モデルで、Common Voice 8.0データセットでトレーニングされました。
音声認識
Transformers その他

H
Akashpb13
37
5
Bert Base Multilingual Cased Finetuned Naija
これはナイジェリアピジン語に最適化されたBERTモデルで、多言語BERTを微調整して作成され、命名エンティティ認識タスクでは元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル
Transformers

B
Davlan
13
0
Xls R Hausa 40
Apache-2.0
wav2vec2-xls-r-300mアーキテクチャに基づくハウサ語自動音声認識モデルで、Common Voice 8.0ハウサ語データセットで微調整されました。
音声認識
Transformers その他

X
Mofe
22
1
Swahili Xlsr
Apache-2.0
facebook/wav2vec2-xls-r-300mをファインチューニングしたスワヒリ語自動音声認識モデル、Common Voice 8データセットでトレーニング
音声認識
Transformers その他

S
Akashpb13
26
8
Kabyle Xlsr
Apache-2.0
これはfacebook/wav2vec2-xls-r-300mモデルをカバイル語データセットで微調整した自動音声認識(ASR)モデルです。
音声認識
Transformers その他

K
Akashpb13
39
2
Opus Mt Lg Sv
Apache-2.0
OPUSデータセットで訓練されたルガンダ語(lg)からスウェーデン語(sv)への機械翻訳モデル、transformer-alignアーキテクチャを採用
機械翻訳
Transformers その他

O
Helsinki-NLP
13
0
Bert Base Multilingual Cased Finetuned Hausa
これは多言語BERTモデルを微調整したハウサ語BERTモデルで、テキスト分類と固有表現抽出タスクで元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル
B
Davlan
43
1
Xlm Roberta Base Finetuned Luganda
XLM - RoBERTaをベースにルガンダ語テキストで微調整したモデルで、固有表現認識タスクでベースモデルよりも優れた性能を発揮します。
大規模言語モデル
Transformers

X
Davlan
23
1
Opus Mt En Bnt
Apache-2.0
これは多言語翻訳モデルで、英語からショナ語、ズールー語、ルワンダ語など複数のバントゥー語族言語への翻訳をサポートします。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
44
1
Xlm Roberta Base Finetuned Amharic
XLM - RoBERTaをベースにアムハラ語テキストで微調整したモデルで、固有表現抽出タスクでは元のXLM - RoBERTaよりも優れた性能を発揮します。
大規模言語モデル
Transformers

X
Davlan
81
1
Bert Base Multilingual Cased Finetuned Igbo
これはイボ語に最適化されたBERTモデルで、多言語BERTをベースに微調整して得られ、イボ語のテキスト処理タスクでは基礎の多言語モデルよりも優れた性能を発揮します。
大規模言語モデル
Transformers

B
Davlan
16
1
Opus Mt Tum Fr
Apache-2.0
Transformerアーキテクチャに基づく機械翻訳モデルで、タンブカ語(tum)からフランス語(fr)への翻訳タスクをサポートします。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
24
0
Opus Mt Ts En
Apache-2.0
Transformerアーキテクチャに基づく機械翻訳モデルで、トンガ語(ts)を英語(en)に翻訳するために使用されます。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
1,843
0
Opus Mt Tum Es
Apache-2.0
Transformerアーキテクチャに基づく機械翻訳モデルで、tum言語からスペイン語への翻訳タスクに使用されます。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
16
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98