Saute
MIT
SAUTEは、多話者対話を効果的にモデリングするために設計された、軽量で話者感知能力を備えたTransformerアーキテクチャです。
対話システム
Transformers 英語

S
JustinDuc
229
1
Terjman Nano V2.0
Terjman-Nano-v2.0はTransformerアーキテクチャに基づく英語-モロッコ方言翻訳モデルで、77Mのパラメータ規模を持ち、高品質で正確な翻訳のために最適化されています。
機械翻訳
Transformers 複数言語対応

T
atlasia
95
2
Spec Vision V1
MIT
Spec-Vision-V1は、軽量で最先端のオープンソースマルチモーダルモデルで、視覚とテキストデータの深い統合のために構築され、128Kの文脈長をサポートします。
テキスト生成画像
Transformers その他

S
SVECTOR-CORPORATION
17
1
Spam Mail Classifier
Apache-2.0
microsoft/Multilingual-MiniLM-L12-H384をファインチューニングしたテキスト分類モデルで、メール件名をスパムメール(SPAM)または非スパムメール(NOSPAM)に分類します。
テキスト分類
Transformers

S
Goodmotion
943
3
Segformer B0 512x1024 City 160k
その他
Segformerアーキテクチャに基づく軽量セマンティックセグメンテーションモデル、Cityscapesデータセットで事前学習済み
画像セグメンテーション
S
smp-hub
44
0
Sapiens Depth 0.3b Torchscript
Sapiensは3億枚の1024x1024解像度の人間画像で事前学習された視覚変換器ファミリーで、深度推定タスクに使用されます。
3Dビジョン 英語
S
facebook
69
0
Sat 3l Sm
MIT
3層Transformerアーキテクチャを採用した最先端の文分割技術で、多言語テキスト分割をサポートします。
シーケンスラベリング
Transformers 複数言語対応

S
segment-any-text
168.01k
6
Sat 3l
MIT
sat-3lはwtpsplitに適したモデルで、3層のTransformerアーキテクチャを採用し、最先端の文分割機能を実現しています。
シーケンスラベリング
Transformers 複数言語対応

S
segment-any-text
5,790
3
Meshgpt Preview
Apache-2.0
MeshGPTはオートエンコーダーとTransformerを基にしたテキストから3Dモデルを生成するモデルで、世界初の公開3Dモデルトークナイザーです。
3Dビジョン
Transformers

M
MarcusLoren
254
49
Octo Small 1.5
MIT
Octo小型版はロボット制御のための拡散戦略モデルで、Transformerアーキテクチャを採用し、視覚入力と言語命令に基づいてロボットの動作を予測できます。
マルチモーダル融合
Transformers

O
rail-berkeley
250
6
Paraphrase MiniLM L6 V2 Finetune Summary
sentence-transformersに基づく文の埋め込みモデルで、テキストを384次元のベクトル空間にマッピングでき、意味的検索とテキストの類似度計算に適しています。
テキスト埋め込み
Transformers

P
tonychenxyz
20
1
Sts Distilcamembert Base
MIT
これはDistilCamemBERTをベースにしたフランス語の文埋め込みモデルで、文や段落を768次元ベクトルにエンコードし、文の類似度計算などのタスクに使用できます。
テキスト埋め込み
Transformers フランス語

S
h4c5
48
1
Simple Stories 4M
MIT
Simple StoriesはTinyStoriesデータセットでトレーニングされた小型テキスト生成モデルシリーズで、児童向けストーリー生成に特化しています。
テキスト生成
Transformers 英語

S
broskicodes
104
16
Octo Small
MIT
Octo小型版は拡散戦略で訓練されたロボット制御モデルで、将来4ステップの7次元動作を予測可能。多様なロボットデータセットに適用可能。
マルチモーダル融合
Transformers

O
rail-berkeley
335
13
Ced Base
Apache-2.0
CEDはViT-Transformerベースの簡易オーディオタグ付けモデルで、Audiosetにおいて最先端の性能を実現しています。
音声分類
Transformers

C
mispeech
1,318
7
T5 Translate Vietnamese Nom
MIT
Transformerアーキテクチャに基づく軽量事前学習モデルで、ベトナムチュノムとラテン文字の双方向翻訳専用に設計
機械翻訳
Transformers その他

T
minhtoan
17
3
Mobilevitv2 1.0 Voc Deeplabv3
その他
MobileViTv2アーキテクチャに基づくセマンティックセグメンテーションモデルで、PASCAL VOCデータセットで事前学習済み、512x512解像度の画像処理に対応
画像セグメンテーション
Transformers

M
shehan97
1,075
0
Segformer B0 Flair One
Apache-2.0
SegFormerはTransformerベースの効率的な意味分割モデルで、b0バージョンはその軽量実装です。
画像セグメンテーション
Transformers

S
alanoix
14
1
Internal.wav2vec2 Base Superb Ks Int8 Structured79
Apache-2.0
このモデルはwav2vec2-base-ft-keyword-spottingをsuperbデータセットでファインチューニングしたバージョンで、オーディオ分類タスク用に量子化と構造化プルーニング最適化が施されています。
音声分類
Transformers

I
yujiepan
16
0
Vit Small Patch16 224.dino
Apache-2.0
視覚Transformer(ViT)ベースの画像特徴モデルで、自己教師ありDINO手法でトレーニングされ、画像分類や特徴抽出タスクに適しています。
画像分類
Transformers

V
timm
70.62k
4
T5 Small Vietnamese News
MIT
Transformerベースの軽量事前学習エンコーダ-デコーダモデルで、ベトナム語ニュース要約用に設計
テキスト生成
Transformers その他

T
minhtoan
104
4
T5 Small Wikilingua Vietnamese
MIT
Transformerエンコーダ-デコーダアーキテクチャに基づくベトナム語最先端軽量事前学習モデル、テキスト要約タスクに特化。
テキスト生成
Transformers その他

T
minhtoan
43
3
Nat Mini In1k 224
MIT
NAT-Miniは近傍注意メカニズムに基づく軽量視覚Transformerモデルで、ImageNet画像分類タスク向けに設計されています
画像分類
Transformers その他

N
shi-labs
109
0
T5 Small
Apache-2.0
T5-smallはエンコーダー-デコーダーアーキテクチャに基づく事前学習モデルで、統一されたテキストからテキスト形式で複数のタスクを処理し、多言語処理をサポートします。
大規模言語モデル
Transformers 複数言語対応

T
optimum
11.43k
9
Levit 128S
Apache-2.0
LeViT-128SはImageNet-1kデータセットで事前学習された視覚Transformerモデルで、畳み込みネットワークの利点を組み合わせてより高速な推論を実現しています。
画像分類
Transformers

L
facebook
3,198
4
Levit 384
Apache-2.0
LeViT-384はImageNet-1kデータセットで事前学習された視覚Transformerモデルで、畳み込みネットワークの利点を組み合わせてより高速な推論を実現しています。
画像分類
Transformers

L
facebook
37
0
HPD MiniLM F128
Apache-2.0
同型射影蒸留による意味検索の文表現モデルの圧縮、わずか2300万パラメータ、モデルサイズ87MB
テキスト埋め込み
Transformers

H
Xuandong
13
0
Distilbert Base En Ur Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの簡略版で、英語とウルドゥー語に特化しており、元のモデルの表現能力を保持しています。
大規模言語モデル
Transformers その他

D
Geotrend
32
1
Xtremedistil L6 H384 Uncased
MIT
XtremeDistilTransformersは、知識蒸留を行った軽量Transformerモデルで、タスク非依存性を持ち、様々な自然言語処理タスクに適用できます。
大規模言語モデル 英語
X
microsoft
1,854
23
Multilingual MiniLM L12 H384
MIT
MiniLMは小型で効率的な事前学習言語モデルで、深層自己注意蒸留技術によりTransformerモデルを圧縮し、多言語理解と生成タスクをサポートします。
大規模言語モデル 複数言語対応
M
microsoft
28.51k
83
Deit Small Patch16 224
Apache-2.0
DeiTはより効率的にトレーニング可能なVision Transformerモデルで、ImageNet-1kデータセットで224x224解像度で事前学習とファインチューニングが行われ、画像分類タスクに適しています。
画像分類
Transformers

D
facebook
24.53k
8
Xtremedistil L6 H256 Uncased
MIT
XtremeDistilTransformersは蒸留されたタスク非依存型Transformerモデルで、タスク転移学習技術を用いて訓練された小型汎用モデルであり、様々なタスクと言語に適用可能です。
大規模言語モデル
Transformers 英語

X
microsoft
3,816
33
Fnet Base Finetuned Cola
Apache-2.0
google/fnet-baseをベースに、GLUE COLAデータセットで微調整したテキスト分類モデル。FNetとBERTアーキテクチャの性能比較に使用されます。
テキスト分類
Transformers 英語

F
gchhablani
15
0
Distil Eng Quora Sentence
これはsentence-transformersに基づく文章埋め込みモデルで、文章を768次元のベクトル空間にマッピングでき、意味的類似度計算やテキストクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

D
mboth
39
1
Xtremedistil L12 H384 Uncased
MIT
XtremeDistilTransformersは蒸留されたタスク非依存のTransformerモデルで、タスク転移学習により小型汎用モデルを実現し、あらゆるタスクと言語に適用可能です。
大規模言語モデル
Transformers 英語

X
microsoft
471
15
Deit Tiny Patch16 224
Apache-2.0
DeiTは効率的に訓練された視覚Transformerモデルで、ImageNet-1kデータセットで事前学習と微調整が行われ、画像分類タスクに適しています。
画像分類
Transformers

D
facebook
29.04k
9
Minilm L12 H384 Uncased
MIT
MiniLMは、深層自己注意蒸留技術によって圧縮された小型で効率的な事前訓練言語モデルで、言語理解と生成タスクに適しています。
大規模言語モデル
M
microsoft
10.19k
89
Distilbert Base En Es It Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量化バージョンで、英語、スペイン語、イタリア語の処理をサポートし、元のモデルの精度を維持しています。
大規模言語モデル
Transformers その他

D
Geotrend
16
0
Paraphrase Multilingual MiniLM L12 V2
Apache-2.0
これは多言語文埋め込みモデルで、テキストを384次元ベクトル空間にマッピングでき、意味的検索やクラスタリングタスクに適しています。
テキスト埋め込み
Transformers

P
DataikuNLP
518
0
Paraphrase Albert Small V2
Apache-2.0
これはALBERT-smallアーキテクチャに基づく文変換モデルで、文や段落を768次元のベクトル空間にマッピングでき、文類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

P
DataikuNLP
17
2
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98