Ptt5 V2 Base
Apache-2.0
ptt5-v2はポルトガル語向けに事前学習されたT5モデルシリーズで、Googleのオリジナルチェックポイントから継続して学習されています。
大規模言語モデル
Transformers その他

P
unicamp-dl
1,197
2
Ptvid
MIT
このモデルはneuralmind/bert-large-portuguese-casedをPtBrVIdデータセットでファインチューニングしたバージョンで、主にポルトガル語テキスト処理タスクに使用されます。
大規模言語モデル
Transformers

P
liaad
108
2
Ptt5 Base Summ
MIT
PTT5をファインチューニングしたブラジルポルトガル語の抽象要約生成モデルで、ニュースなどのテキストから簡潔な要約を生成できます。
テキスト生成
Transformers その他

P
recogna-nlp
853
0
Bertimbau
MIT
ブラジルポルトガル語向けに事前学習されたBERTモデルで、様々なNLPタスクで優れた性能を発揮
大規模言語モデル その他
B
tubyneto
38
1
Legal BERTimbau Large
MIT
BERTimbau大規模モデルをファインチューニングした法律分野向けポルトガル語BERTモデル、法律文書処理に特化
大規模言語モデル
Transformers その他

L
rufimelo
194
2
Ft Pt Br Local
Apache-2.0
jonatasgrosman/wav2vec2-large-xlsr-53-portugueseを基にファインチューニングしたポルトガル語自動音声認識モデル
音声認識
Transformers

F
tonyalves
31
1
Wav2vec2 Large Xlsr 53 Coraa Brazilian Portuguese Gain Normalization
Apache-2.0
これはポルトガル語向けにファインチューニングされたWav2vec 2.0モデルで、CORAA、CETUC、MLSなど複数のポルトガル語音声データセットからトレーニングデータを取得しています。
音声認識
Transformers その他

W
alefiury
28
0
Wav2vec2 Large Xlsr 53 Coraa Brazilian Portuguese Gain Normalization Sna
Apache-2.0
これはポルトガル語に特化してファインチューニングされたWav2vec 2.0モデルで、CORAA、CETUC、多言語LibriSpeechなど複数のポルトガル語音声データセットを使用してトレーニングされました。
音声認識
Transformers その他

W
alefiury
23
2
Bert Large Portuguese Cased
MIT
BERTimbau Largeはブラジルポルトガル語向けに事前学習されたBERTモデルで、複数の下流NLPタスクにおいて最先端の性能を達成しています。
大規模言語モデル その他
B
neuralmind
298.31k
66
Bert Base Cased Squad V1.1 Portuguese
MIT
BERTimbauベーシック版を微調整したポルトガル語QAモデルで、ポルトガル語SQUAD v1.1データセットでトレーニングされ、ポルトガル語のQAタスクに適しています。
質問応答システム その他
B
pierreguillou
3,041
36
Bertimbau Base Lener Br
MIT
BERTimbau(ポルトガル語BERT)をベースに、lener_brデータセットで微調整した固有表現認識モデルで、ポルトガル語テキストのエンティティタグ付けタスクに使用されます。
シーケンスラベリング
Transformers その他

B
Luciano
2,303
5
Bertimbau Large Lener Br
MIT
BERTimbau大規模モデルをlener_brデータセットでファインチューニングしたポルトガル語固有表現認識モデル
シーケンスラベリング
Transformers その他

B
Luciano
52
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98