Cuckoo C4 Super Rainbow
Apache-2.0
カッコウは3億パラメータの情報抽出モデルで、大規模言語モデルの次トークン予測パラダイムを模倣して情報抽出を行い、様々なテキストリソースを利用して自己強化できます。
大規模言語モデル
Transformers

C
KomeijiForce
159
1
Cuckoo C4 Instruct
MIT
スーパーレインボーカッコウは次語抽出(NTE)パラダイムに基づく小型情報抽出モデルで、大規模言語モデルの予測方法を模倣することで効率的な情報抽出を実現します。
質問応答システム
Transformers

C
KomeijiForce
17
1
Smart Lemon Cookie 7B
Smart-Lemon-Cookie-7B は mergekit を使用して統合された事前学習済み言語モデルで、複数のモデルの長所を組み合わせ、テキスト生成やロールプレイタスクに適しています。
大規模言語モデル
Transformers 英語

S
FallenMerick
40
4
Pasta Lake 7b
その他
Pasta-Lake-7bは、Test157t/Pasta-PrimaMaid-7bとmacadeliccc/WestLake-7B-v2-laser-truthy-dpoの2つのモデルを統合して作成された7Bパラメータ規模の言語モデルです。
大規模言語モデル
Transformers

P
Nitral-Archive
93
6
Blurdus 7b V0.1
Apache-2.0
Blurdus-7b-v0.1はLazyMergekitを使用して3つの7Bパラメータモデルを統合したハイブリッドモデルで、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers

B
gate369
80
1
Supermario V2
Apache-2.0
supermario-v2はMistral-7B-v0.1をベースにしたマージモデルで、DARE_TIESメソッドを使用して3つの異なるモデルを統合し、優れたテキスト生成能力を備えています。
大規模言語モデル
Transformers 英語

S
jan-hq
77
8
Timesformer Base Finetuned K400 Continual Lora Ucf101 Continual Lora Ucf101
TimeSformerアーキテクチャに基づくビデオ行動認識モデルで、Kinetics-400データセットで事前学習され、UCF101データセットでファインチューニングされています
動画処理
Transformers

T
NiiCole
18
0
Tiny Random T5ForConditionalGeneration Calibrated
テキスト生成や変換タスクに適した、軽量で効率的な最適化キャリブレーション済みのミニT5モデルです。
大規模言語モデル
Transformers

T
ybelkada
581.45k
1
Vit Base Patch16 224 Finetuned Eurosat
Apache-2.0
GoogleのViT基本アーキテクチャに基づき、EuroSATリモートセンシング画像データセットでファインチューニングされた画像分類モデル
画像分類
Transformers

V
sabhashanki
18
0
Beitv2 Martin
Apache-2.0
このモデルはmicrosoft/beit-base-patch16-224-pt22k-ft22kをファインチューニングしたバージョンで、具体的な用途とトレーニングデータは明記されていません。
画像分類
Transformers

B
molsen
17
0
Google Vit Base Patch16 224 Face
Apache-2.0
google/vit-base-patch16-224を画像フォルダデータセットでファインチューニングしたVision Transformerモデルで、画像分類タスクに使用されます。
画像分類
Transformers

G
jayanta
18
1
Serverless Roomsort
Apache-2.0
microsoft/beit-base-patch16-224-pt22k-ft22kを基に微調整した画像分類モデルで、評価データセットで98.92%の精度を達成。
画像分類
Transformers

S
ShuaHousetable
809
1
Vit Base Patch16 224 In21k Iiii
Apache-2.0
このモデルはgoogle/vit-base-patch16-224-in21kをファインチューニングしたビジョントランスフォーマーモデルで、主に画像分類タスクに使用されます。
画像分類
Transformers

V
Imene
21
0
Resnet 50 Finetuned Resnet50 0831
Apache-2.0
マイクロソフトResNet-50モデルを画像フォルダデータセットでファインチューニングした画像分類モデルで、精度は97.64%
画像分類
Transformers

R
morganchen1007
27
0
Ak Vit Base Patch16 224 In21k Image Classification
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、カスタム画像データセットで微調整され、評価精度は100%に達しました
画像分類
Transformers

A
amitkayal
19
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98