Zoobot Encoder Euclid
Apache-2.0
timmライブラリに基づいて構築された画像分類モデルで、zoobot-encoder-convnext_nanoをベースモデルとし、画像分類能力を備えています。
画像分類
Z
mwalmsley
206
1
Swin Tiny Patch4 Window7 224 Finetuned Og Dataset 10e
Apache-2.0
Swin Transformer Tinyアーキテクチャに基づく視覚モデルで、画像分類タスクに対して10エポックのファインチューニングを実施
画像分類
Transformers

S
Gokulapriyan
19
0
Cvt 13 384 In22k FV Finetuned Memes
Apache-2.0
microsoft/cvt-13-384-22kをベースに画像フォルダデータセットでファインチューニングした画像分類モデルで、評価セットで83.46%の精度を達成
画像分類
Transformers

C
jayanta
11
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
このモデルはGoogleのViTモデルを未知のデータセットでファインチューニングしたバージョンで、主に画像分類タスクに使用されます。
画像分類
Transformers

V
Zynovia
22
0
Gpt2 Small Spanish
Apache-2.0
GPT - 2の小型モデルに基づくスペイン語言語モデルで、転移学習を通じてスペイン語ウィキペディアで微調整トレーニングされました。
大規模言語モデル スペイン語
G
datificate
13.14k
30
Flyswot Test
Apache-2.0
ConvNeXtアーキテクチャに基づく画像分類モデルで、画像フォルダのデータセットで微調整されました。
画像分類
Transformers

F
davanstrien
23
0
Minilm L3 H384 Uncased
MIT
これはMicrosoft MiniLM-L12-H384-uncasedモデルの3層に簡素化されたバージョンで、元のモデルの[3,7,11]層のみを保持しています。
大規模言語モデル
Transformers

M
nreimers
324
3
Bert Base Turkish Ner Cased
これはBERTアーキテクチャに基づくトルコ語の命名エンティティ認識モデルで、トルコ語テキストのエンティティ認識タスクに適しています。
シーケンスラベリング その他
B
savasy
1,269
18
Indonesian Roberta Base Emotion Classifier
MIT
Indo-robertaモデルをベースに訓練されたインドネシア語の感情分類器で、IndoNLU EmoTデータセットで訓練され、感情分析タスクに使用されます。
テキスト分類
Transformers その他

I
StevenLimcorn
767
14
Distilbert Base Uncased Finetuned Mi
Apache-2.0
このモデルはdistilbert-base-uncasedを未知のデータセットで微調整したバージョンで、主にテキスト関連のタスクに使用されます。
大規模言語モデル
Transformers

D
yancong
26
1
Bert Base Uncased Sparse 90 Unstructured Pruneofa
Apache-2.0
これは疎事前学習のBERT-Baseモデルで、ワンショット剪定方法により90%の重みを疎化し、さまざまな言語タスクの微調整に適しています。
大規模言語モデル
Transformers 英語

B
Intel
178
0
Gpt2 Small Dutch
OpenAIの小型GPT - 2モデルをベースに開発されたオランダ語専用モデルで、単語埋め込み層を再学習し、完全に微調整することでオランダ語処理能力を最適化しています。
大規模言語モデル その他
G
GroNLP
945
5
Quran Speech Recognizer
このモデルは転移学習に基づくアラビア語音声認識システムで、コーランの朗読内容を識別し、具体的な章に位置特定するために特別に設計されています。
音声認識
Transformers

Q
Nuwaisir
123
9
Code Trans T5 Large Source Code Summarization Sql Transfer Learning Finetune
T5-largeアーキテクチャに基づくSQLコード要約生成モデルで、転移学習と微調整により最適化され、SQLコードの機能説明の生成に特化しています。
テキスト生成
Transformers

C
SEBIS
19
0
T5 3b
Apache-2.0
T5-3BはGoogleによって開発された30億パラメータのテキストからテキストへの変換Transformerモデルで、統一されたテキストからテキストへのフレームワークを用いて様々なNLPタスクを処理します。
大規模言語モデル
Transformers 複数言語対応

T
google-t5
340.75k
46
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98