Vjepa2 Vitl Fpc64 256
MIT
V-JEPA 2はMetaのFAIRチームが開発した最先端のビデオ理解モデルで、VJEPAの事前学習目標を拡張し、業界をリードするビデオ理解能力を備えています。
動画処理
Transformers

V
facebook
109
27
Hubert Ecg Small
心電図分析に向けた自己教師付き事前学習基礎モデルで、164種類の心血管病症検出をサポートします。
分子モデル
Transformers

H
Edoardo-BS
535
2
Vit Small Patch8 224.lunit Dino
その他
ビジュアルトランスフォーマー(ViT)に基づく画像分類モデルで、3300万枚の組織学的切片を使用してDINO自己教師付き学習方法で訓練され、病理画像分類タスクに適しています。
画像分類
V
1aurent
167
1
Hubert Large Korean
Apache-2.0
Hubert-large-koreanはHubertアーキテクチャに基づく韓国語自動音声認識モデルで、自己教師付き学習により音声波形から直接特徴を抽出し、韓国語音声処理において優れた性能を発揮します。
音声認識
Transformers 韓国語

H
team-lucid
131
11
S2t Wav2vec2 Large En De
MIT
Transformerベースのエンドツーエンド音声翻訳モデルで、英語からドイツ語への音声翻訳に特化して設計されています。
音声認識
Transformers 複数言語対応

S
facebook
817
4
Albert Fa Base V2 Clf Persiannews
Apache-2.0
ペルシア語の自己教師付き学習言語表現のために作られた軽量級BERTモデル
大規模言語モデル
Transformers その他

A
m3hrdadfi
46
3
Albert Fa Base V2
Apache-2.0
ペルシア語の言語表現の自己教師付き学習に使用される軽量級BERTモデル
大規模言語モデル
Transformers その他

A
m3hrdadfi
43
4
Hubert Large Ls960 Ft
Apache-2.0
HuBERT-Largeは、LibriSpeechの960時間の音声データで微調整された自己教師付き音声表現学習モデルで、自動音声認識タスクに使用されます。
音声認識
Transformers 英語

H
facebook
776.27k
66
Wav2vec2 Dhivehi
Common Voiceディヴィヒ語データセットに基づいて最初から事前学習されたWav2vec2モデルで、Flaxフレームワークを使用して訓練されました。
音声認識 その他
W
flax-community
24
0
Papugapt2
GPT2アーキテクチャに基づくポーランド語テキスト生成モデルで、ポーランド語NLP分野の空白を埋め、多言語Oscarコーパスで訓練されました。
大規模言語モデル その他
P
flax-community
804
11
Distilhubert
Apache-2.0
DistilHuBERTは、HuBERTモデルを階層的に蒸留することで実現された軽量版の音声表現学習モデルで、性能を維持しながらモデルサイズと計算コストを大幅に削減します。
音声認識
Transformers 英語

D
ntu-spml
2,962
31
Intermediate
Apache-2.0
英語コーパスを用いて事前学習されたTransformerモデルで、ELECTRAに似た目標タスクを採用し、自己教師付き学習によりテキスト表現を獲得します。
大規模言語モデル
Transformers 英語

I
funnel-transformer
24
0
Albert Fa Base V2 Sentiment Multi
Apache-2.0
ペルシャ語の自己教師付き学習言語表現のための軽量級BERTモデル
大規模言語モデル
Transformers その他

A
m3hrdadfi
39
1
Large
Apache-2.0
英語コーパスに基づいて事前学習されたTransformerモデルで、ELECTRAに類似した目的関数を採用し、自己教師付き方式で英語の内在的な表現を学習します。
大規模言語モデル
Transformers 英語

L
funnel-transformer
190
2
Hubert Xlarge Ls960 Ft
Apache-2.0
Librispeechの960時間の音声データで微調整されたHubert超大型音声認識モデルで、LibriSpeechテストセットでのWERはわずか1.8です。
音声認識
Transformers 英語

H
facebook
8,160
14
Tf Xlm Roberta Large
XLM-RoBERTaは大規模な多言語文エンコーダで、100言語の2.5TBのデータを用いて学習され、多くの多言語ベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers

T
jplu
236
1
Data2vec Text Base
MIT
data2vec目標を用いて英語言語を事前学習した汎用的な自己教師付き学習フレームワークで、統一的な方法で異なるモーダルのタスクを処理します。
大規模言語モデル
Transformers 英語

D
facebook
1,796
12
Albert Fa Base V2 Sentiment Deepsentipers Binary
Apache-2.0
ペルシア語向けの自己教師付き言語表現学習用の軽量版BERTモデル
大規模言語モデル
Transformers その他

A
m3hrdadfi
25
0
Electra Small Generator
Apache-2.0
ELECTRAは、生成型の事前学習ではなく判別型の事前学習を通じた効率的なテキストエンコーダで、低いコンピューティング能力で優れた性能を発揮できます。
大規模言語モデル 英語
E
google
11.07k
12
Xlarge
Apache-2.0
Funnel Transformerは自己教師付き学習に基づく英語テキストの事前学習モデルで、ELECTRAに似た目標タスクを採用し、シーケンスの冗長性をフィルタリングすることで効率的な言語処理を実現します。
大規模言語モデル
Transformers 英語

X
funnel-transformer
31
1
Albert Fa Base V2 Ner Peyma
Apache-2.0
初のペルシア語向けALBERTモデルで、GoogleのALBERT基礎版2.0アーキテクチャに基づき、多様なペルシア語コーパスで学習されたものです。
大規模言語モデル
Transformers その他

A
m3hrdadfi
19
1
Albert Fa Base V2 Clf Digimag
Apache-2.0
初のペルシア語向けの軽量級ALBERTモデルで、GoogleのALBERT BASE 2.0バージョンをベースに訓練されました。
大規模言語モデル
Transformers その他

A
m3hrdadfi
14
0
Wav2vec2 FR 7K Large
Apache-2.0
7.6K時間のフランス語音声で訓練されたLarge wav2vec2モデルで、自発的な音声、朗読音声、放送音声のデータが含まれています。
音声認識
Transformers フランス語

W
LeBenchmark
1,091
12
Wav2vec2 FR 1K Base
Apache-2.0
1千時間のフランス語音声で訓練されたwav2vec2の基礎モデルで、音声認識などのタスクをサポートします。
音声認識
Transformers フランス語

W
LeBenchmark
85
1
Wav2vec2 Pretrained Clsril 23 10k
自己教師付き学習に基づく音声事前学習モデルで、23種類のインド語の生の音声から多言語音声表現を学習できます。
音声認識
Transformers

W
Harveenchadha
32
5
Wav2vec2 FR 3K Large
Apache-2.0
2.9K時間のフランス語音声で訓練された大型wav2vec2モデルで、自発的な音声、朗読音声、放送音声の処理をサポートします。
音声認識 フランス語
W
LeBenchmark
948
1
Wav2vec2 FR 7K Base
Apache-2.0
7.6千時間のフランス語音声で訓練されたLarge wav2vec2モデルで、自発的、朗読式、放送式の音声を含む
音声認識
Transformers フランス語

W
LeBenchmark
26
1
Albert Fa Zwnj Base V2
Apache-2.0
ペルシャ語向けの自己教師付き言語表現学習用の軽量BERTモデル
大規模言語モデル
Transformers その他

A
HooshvareLab
137
4
Wav2vec2 FR 3K Base
Apache-2.0
2.9K時間のフランス語音声で学習したwav2vec2の基礎モデルで、自発的、朗読、放送音声に対応
音声認識
Transformers フランス語

W
LeBenchmark
31
0
Parst5 Base
ペルシア語用の単言語T5モデルで、OSCAR 21.09コーパスに基づいて自己教師付き方法で訓練され、ペルシア語向けに設計されています。
大規模言語モデル
Transformers

P
Ahmad
126
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98