Falcon H1 3B Instruct
その他
ファルコン-H1はTIIが開発したTransformers+Mambaハイブリッドアーキテクチャの因果デコーダ専用言語モデルで、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
380
4
Falcon H1 1.5B Instruct
その他
ファルコン-H1はTIIが開発した効率的なハイブリッドアーキテクチャの言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
1,022
4
Stripedhyena Nous 7B
Apache-2.0
ストライプドハイエナ-Nous-7Bは、マルチヘッドグループクエリアテンションとゲート畳み込みを組み合わせたハイブリッドアーキテクチャに基づくチャットモデルで、長文脈処理をサポートします。
大規模言語モデル
Transformers 英語

S
togethercomputer
115
141
Dpt Hybrid Midas
Intelが開発したハイブリッド深度推定モデルで、畳み込みニューラルネットワークとTransformerアーキテクチャの利点を組み合わせている
3Dビジョン
Transformers

D
Xenova
23
0
Vit Hybrid Base Bit 384
Apache-2.0
ハイブリッドビジョントランスフォーマー(ViT)モデルは、畳み込みネットワークとTransformerアーキテクチャを組み合わせたもので、画像分類タスクにおいてImageNetで優れた性能を発揮します。
画像分類
Transformers

V
google
992.28k
6
Cvt 21 384
Apache-2.0
CvT-21は畳み込みビジョントランスフォーマーアーキテクチャに基づく画像分類モデルで、ImageNet-1kデータセットで384x384解像度で事前学習されています。
画像分類
Transformers

C
microsoft
29
1
Cvt 13 384
Apache-2.0
CvT-13はImageNet-1kデータセットで事前学習されたビジョントランスフォーマーモデルで、畳み込み操作を導入することで従来のビジョントランスフォーマーの性能を改善しました。
画像分類
Transformers

C
microsoft
27
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98