# 効率的なTransformer

Sonics Spectttra Gamma 5s
MIT
エンドツーエンドAI生成楽曲を検出する先進モデルで、長時間オーディオ特徴の捕捉に特に優れています
音声分類 英語
S
awsaf49
119
0
Gliner Biomed Bi Large V1.0
Apache-2.0
GLiNER-BioMedはGLiNERフレームワークに基づく、生物医学分野向けに設計された効率的なオープンNERモデルスイートで、さまざまな種類の生物医学エンティティを認識できます。
シーケンスラベリング 英語
G
Ihor
56
1
Gliner Biomed Bi Base V1.0
Apache-2.0
GLiNER-BioMedはGLiNERフレームワークに基づく効率的なオープンバイオメディカル固有表現認識モデルスイートで、バイオメディカル分野向けに設計されており、さまざまなエンティティタイプを認識できます。
シーケンスラベリング 英語
G
Ihor
25
1
Gliner Biomed Large V1.0
Apache-2.0
GLiNER-BioMedはGLiNERフレームワークに基づく専門的な効率的なオープンバイオメディカルNERモデルスイートで、バイオメディカルエンティティ認識タスクにおいて最先端のゼロショットおよび少数ショット性能を実現しています。
シーケンスラベリング PyTorch 英語
G
Ihor
163
6
Janus Pro 1B
MIT
Janus-Proは、新しい自己回帰フレームワークで、マルチモーダルの理解と生成能力を統一しています。視覚エンコーディングパスを分離し、単一のTransformerアーキテクチャでマルチモーダルタスクを処理します。
テキスト生成画像 Transformers
J
deepseek-ai
34.02k
432
Deepseek Llm 7B Base AWQ
その他
Deepseek LLM 7B Baseは7Bパラメータ規模のベース大規模言語モデルで、AWQ量子化技術を用いて推論効率を最適化しています。
大規模言語モデル Transformers
D
TheBloke
1,863
2
Ced Tiny
Apache-2.0
CED-TinyはViT-Transformerベースの簡易オーディオタグ付けモデルで、Audiosetで最先端の性能を実現しました。
音声分類 Transformers
C
mispeech
54
2
Ced Small
Apache-2.0
CEDはViT-Transformerベースの簡易オーディオタグ付けモデルで、Audiosetで最先端の性能を実現しています。
音声分類 Transformers
C
mispeech
18
0
Long T5 Tglobal Xl
Apache-2.0
LongT5はTransformerベースのテキスト対テキストモデルで、長シーケンス入力を処理するために特別に設計されており、最大16384トークンまでサポートします。
大規模言語モデル Transformers 英語
L
google
336
23
Electra Large Generator
Apache-2.0
ELECTRAは、従来の生成型事前学習を判別型事前学習で置き換えることで、計算効率を大幅に向上させた効率的な自己教師あり言語表現学習手法です。
大規模言語モデル 英語
E
google
473
8
Bigbird Roberta Large
Apache-2.0
BigBirdはスパースアテンションに基づくTransformerモデルで、最大4096の長いシーケンスを処理でき、長文ドキュメントタスクに適しています。
大規模言語モデル 英語
B
google
1,152
27
Fnet Base Finetuned Sst2
Apache-2.0
GoogleのFNetアーキテクチャに基づき、SST-2感情分析データセットでファインチューニングされたテキスト分類モデル
テキスト分類 英語
F
gchhablani
16
1
Fnet Base Finetuned Qqp
Apache-2.0
このモデルはGLUE QQPデータセットでgoogle/fnet-baseをファインチューニングしたバージョンで、テキスト分類タスク、特にQuoraの質問ペアが重複しているかどうかの問題に特化しています。
テキスト分類 Transformers 英語
F
gchhablani
14
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase