# 高パラメータモデル

L3 GothicMaid Upscaled 11B
mergekitツールを使用して融合された8Bパラメータの言語モデルで、パススルー(Passthrough)融合方法を用いて生成
大規模言語モデル Transformers 英語
L
yamatazen
14
3
Mitre 913m
MIT
MITREは多言語対応のデコーダのみのモデルで、多対多翻訳タスク向けに設計されており、5つの語族にまたがる24言語間の552方向の直接翻訳をサポートしています。
機械翻訳 複数言語対応
M
naist-nlp
54
3
Snakmodel 7b Instruct
SnakModelは、デンマーク語用に特別に設計された70億パラメータの大規模言語モデルで、Llama 2アーキテクチャに基づいており、コペンハーゲンIT大学によって開発されました。
大規模言語モデル Transformers その他
S
NLPnorth
134
5
Tucano 2b4
Apache-2.0
Tucano-2b4は、ポルトガル語に特化して原生事前学習を行った大規模言語モデルで、トランスフォーマーアーキテクチャに基づき、2000億トークンのGigaVerboデータセットで学習されました。
大規模言語モデル Transformers その他
T
TucanoBR
1,478
4
Velara 11B V2 GGUF
Velara 11B v2はMistralアーキテクチャに基づく大規模言語モデルで、テキスト生成タスクに特化しており、Alpaca-InstructOnly2プロンプトテンプレートを採用しています。
大規模言語モデル 英語
V
TheBloke
1,047
9
Vit Large Patch16 224.orig In21k
Apache-2.0
Vision Transformer(ViT)ベースの画像分類モデルで、Google ResearchがJAXフレームワークでImageNet-21kで事前学習後、PyTorchに移植。特徴抽出やファインチューニングに適しています。
画像分類 Transformers
V
timm
584
2
Vit Base Patch32 224.orig In21k
Apache-2.0
Vision Transformer (ViT)ベースの画像分類モデルで、ImageNet-21kで事前学習されており、特徴抽出やファインチューニングのシナリオに適しています。
画像分類 Transformers
V
timm
438
0
Vit Base Patch16 224.orig In21k
Apache-2.0
Vision Transformerに基づく画像分類モデルで、ImageNet-21kで事前学習されており、特徴抽出やファインチューニングに適しています
画像分類 Transformers
V
timm
23.07k
1
Focalnet Huge Fl4.ms In22k
MIT
FocalNetは焦点変調ネットワークに基づく画像分類モデルで、マイクロソフトチームによってImageNet-22kデータセットで事前学習されました。
画像分類 Transformers
F
timm
103
0
Convnextv2 Base.fcmae
ConvNeXt-V2ベースの自己教師あり特徴表現モデルで、全畳み込みマスク自己エンコーダーフレームワーク(FCMAE)を使用して事前学習
画像分類 Transformers
C
timm
629
1
Vit Large Patch32 224.orig In21k
Apache-2.0
Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、ImageNet-21kデータセットで事前学習されており、特徴抽出やファインチューニングのシナリオに適しています。
画像分類 Transformers
V
timm
771
0
Gpt Fr Cased Base
Apache-2.0
GPT-frはQuantmetryと形式言語学研究所(LLF)によって開発されたフランス語GPTモデルで、大規模で多様なフランス語コーパスでトレーニングされています。
大規模言語モデル フランス語
G
asi
755
28
Xls R Et V 3
Apache-2.0
このモデルは、facebook/wav2vec2 - xls - r - 1bをエストニア語データセットでファインチューニングした自動音声認識モデルです。
音声認識 Transformers その他
X
vasilis
41
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase