Whisperfile
Apache-2.0
Whisperは、音声認識と翻訳タスクに使用されるTransformerベースのエンコーダ-デコーダモデルで、多言語処理に対応しています。
音声認識
W
cjpais
353
9
Whisper Medium.en
Apache-2.0
WhisperはOpenAIが開発した自動音声認識(ASR)モデルで、68万時間のラベル付き音声データで訓練され、強力な汎化能力を持っています。
音声認識 英語
W
openai
36.92k
53
Whisper Small.en
Apache-2.0
Whisperは事前学習された自動音声認識(ASR)モデルで、68万時間のラベル付きデータで学習され、強力な汎化能力を示します。
音声認識 英語
W
openai
20.50k
47
Epiextract4gard V2
その他
BioBERTを微調整した命名実体認識モデルで、希少疾患の概要に含まれる疫学情報の識別に特化しています。
シーケンスラベリング
Transformers 英語

E
ncats
34
0
Araroberta SA
Apache-2.0
AraRoBERTaは、国レベルの方言を基に訓練された単一方言のアラビア語モデルで、RoBERTaの基本設定を採用しています。
大規模言語モデル
Transformers アラビア語

A
reemalyami
54
0
Tapas Large Finetuned Wikisql Supervised
Apache-2.0
TAPASはBERTに似たTransformerモデルで、表形式の質問応答タスク用に設計されています。自己教師付き方式でウィキペディアの英語表コーパスで事前学習され、WikiSQLデータセットで微調整されています。
質問応答システム
Transformers 英語

T
google
80
6
Tapas Large Finetuned Sqa
Apache-2.0
このモデルはTAPASの大型バージョンで、順序質問応答(SQA)タスクでファインチューニングされ、表関連の質問応答シーンに適しています。
質問応答システム
Transformers 英語

T
google
71
7
Tapas Small Finetuned Wtq
Apache-2.0
このモデルはTAPASの小型版で、WikiTable Questionsデータセットに特化して微調整され、表形式の質問応答タスクに使用されます。
質問応答システム
Transformers 英語

T
google
406
5
Twitter4sse
Apache-2.0
Twitter4SSEは、BERTweetに基づく文埋め込みモデルで、ツイッターデータに特化して最適化され、文の意味的類似度を計算するために使用されます。
テキスト埋め込み
Transformers 英語

T
digio
64
7
Tapas Medium Finetuned Wikisql Supervised
Apache-2.0
TAPASはTransformerベースの表形式の質問応答モデルで、自己教師付き方式でウィキペディアの英語の表データで事前学習し、WikiSQLデータセットで教師付き微調整を行います。
質問応答システム
Transformers 英語

T
google
19
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98