# 弱教師付き学習

Whisperfile
Apache-2.0
Whisperは、音声認識と翻訳タスクに使用されるTransformerベースのエンコーダ-デコーダモデルで、多言語処理に対応しています。
音声認識
W
cjpais
353
9
Whisper Medium.en
Apache-2.0
WhisperはOpenAIが開発した自動音声認識(ASR)モデルで、68万時間のラベル付き音声データで訓練され、強力な汎化能力を持っています。
音声認識 英語
W
openai
36.92k
53
Whisper Small.en
Apache-2.0
Whisperは事前学習された自動音声認識(ASR)モデルで、68万時間のラベル付きデータで学習され、強力な汎化能力を示します。
音声認識 英語
W
openai
20.50k
47
Epiextract4gard V2
その他
BioBERTを微調整した命名実体認識モデルで、希少疾患の概要に含まれる疫学情報の識別に特化しています。
シーケンスラベリング Transformers 英語
E
ncats
34
0
Araroberta SA
Apache-2.0
AraRoBERTaは、国レベルの方言を基に訓練された単一方言のアラビア語モデルで、RoBERTaの基本設定を採用しています。
大規模言語モデル Transformers アラビア語
A
reemalyami
54
0
Tapas Large Finetuned Wikisql Supervised
Apache-2.0
TAPASはBERTに似たTransformerモデルで、表形式の質問応答タスク用に設計されています。自己教師付き方式でウィキペディアの英語表コーパスで事前学習され、WikiSQLデータセットで微調整されています。
質問応答システム Transformers 英語
T
google
80
6
Tapas Large Finetuned Sqa
Apache-2.0
このモデルはTAPASの大型バージョンで、順序質問応答(SQA)タスクでファインチューニングされ、表関連の質問応答シーンに適しています。
質問応答システム Transformers 英語
T
google
71
7
Tapas Small Finetuned Wtq
Apache-2.0
このモデルはTAPASの小型版で、WikiTable Questionsデータセットに特化して微調整され、表形式の質問応答タスクに使用されます。
質問応答システム Transformers 英語
T
google
406
5
Twitter4sse
Apache-2.0
Twitter4SSEは、BERTweetに基づく文埋め込みモデルで、ツイッターデータに特化して最適化され、文の意味的類似度を計算するために使用されます。
テキスト埋め込み Transformers 英語
T
digio
64
7
Tapas Medium Finetuned Wikisql Supervised
Apache-2.0
TAPASはTransformerベースの表形式の質問応答モデルで、自己教師付き方式でウィキペディアの英語の表データで事前学習し、WikiSQLデータセットで教師付き微調整を行います。
質問応答システム Transformers 英語
T
google
19
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase