Cultureclip
CLIP-ViT-B/32をファインチューニングした視覚言語モデルで、画像-テキストマッチングタスクに適しています
テキスト生成画像
Transformers

C
lukahh
20
0
Smartshot Zeroshot Finetuned V0.2.0
MoritzLaurer/deberta-v3-base-zeroshot-v2.0-cをベースにファインチューニングしたゼロショット分類モデル、NLIフレームワークのSmartShot手法でトレーニング
テキスト分類 英語
S
gincioks
197
0
Blip Gqa Ft
MIT
Salesforce/blip2-opt-2.7bをファインチューニングした視覚言語モデルで、画像質問応答タスク用
テキスト生成画像
Transformers

B
phucd
29
0
Paligemma Multimodal Query Rewrite
google/paligemma-3b-pt-224をファインチューニングしたマルチモーダルクエリ書き換えモデル
画像生成テキスト
Transformers

P
utischoolnlp
31
1
Few Shot Learning Classification Bert Sm 5K 32
AutoTrainでトレーニングされた少数ショットテキスト分類モデルで、ニュース記事分類タスクに適しています
テキスト分類
Transformers

F
pravin691983
18
1
Few Shot Learning Classification Bert Sm 500
AutoTrainでトレーニングされたテキスト分類モデルで、少数ショット学習シナリオに適しており、ニュース記事を効率的に分類できます。
テキスト分類
Transformers

F
pravin691983
25
1
Tweety 7b Tatar V24a
Apache-2.0
タタール語向けに開発されたクロストークン大規模言語モデル、Mistral-7B-Instruct-v0.2を基に変換
大規模言語モデル
Transformers その他

T
Tweeties
37
11
Darebeagle 7B
Apache-2.0
DareBeagle-7BはLazyMergekitを使用してmlabonne/NeuralBeagle14-7Bとmlabonne/NeuralDaredevil-7Bを統合した7Bパラメータの大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮しています。
大規模言語モデル
Transformers

D
shadowml
77
1
Setfit Absa Bge Small En V1.5 Restaurants Aspect
Apache-2.0
これはSetFitフレームワークに基づくアスペクト感情分析モデルで、レストラン口座におけるアスペクト用語の識別に特化しています。
テキスト分類 英語
S
tomaarsen
2,390
4
Setfit All MiniLM L6 V2 Sst2 32 Shot
Apache-2.0
これはsst2データセットで訓練されたSetFitモデルで、英文テキスト分類タスクに使用され、効率的な少数ショット学習技術で訓練されています。
テキスト分類 英語
S
tomaarsen
23
7
Misted 7B
Apache-2.0
Misted-7Bは、OpenHermes-2-Mistral-7BとMistral-7B-SlimOrcaを融合した7Bパラメータの大規模言語モデルで、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers 英語

M
Walmart-the-bag
386
8
Is New Dataset Teacher Model
Apache-2.0
SetFitフレームワークに基づく少数ショット学習のテキスト分類モデルで、対照学習と分類ヘッドのトレーニングにより効率的な分類を実現
テキスト分類
I
librarian-bots
168
1
Idefics 9b
その他
IDEFICSはオープンソースのマルチモーダルモデルで、画像とテキスト入力を処理しテキスト出力を生成できます。Deepmind Flamingoモデルのオープンソース再現版です。
画像生成テキスト
Transformers 英語

I
HuggingFaceM4
3,676
46
Idefics 80b
その他
IDEFICS-9Bは90億パラメータのマルチモーダルモデルで、画像とテキスト入力を処理しテキスト出力を生成できます。DeepmindのFlamingoモデルのオープンソース再現版です。
画像生成テキスト
Transformers 英語

I
HuggingFaceM4
70
70
Orca Mini 13b
orca_mini_13b は複数の高品質データセットでトレーニングされたテキスト生成モデルで、命令追従と対話タスクに特化しています。
大規模言語モデル
Transformers 英語

O
pankajmathur
79
100
Fun
Apache-2.0
google/vit-base-patch16-224をベースにファインチューニングされた視覚モデルで、画像分類タスクに適しています
画像分類
Transformers

F
tcvrishank
16
0
Fewshotissueclassifier NLBSE23
Gpl-3.0
Sentence Transformersベースの文類似度モデルで、問題報告分類タスク向けにファインチューニングされており、欠陥/ドキュメント/機能/質問の4分類をサポート
テキスト分類 英語
F
PeppoCola
27
4
Vit Base Aiornot
Apache-2.0
google/vit-base-patch16-224をファインチューニングしたビジュアルモデル、具体的な用途は明記されていません
画像分類
Transformers

V
ThankGod
39
0
Pavit
MIT
PaViTはGoogleのPaLMにインスパイアされたPathway Vision Transformerを基にした画像認識モデルで、少数ショット学習技術の画像認識タスクへの応用に焦点を当てています。
画像分類 複数言語対応
P
Ajibola
20
2
Kinyarwanda YourTTS
エンドツーエンド深層学習に基づくルワンダ語TTSシステムで、ゼロショット学習をサポートし、1分間の音声だけで新しい声を導入できます。
音声合成
Transformers その他

K
DigitalUmuganda
23
2
Chinese Clip Vit Large Patch14
中国語CLIPモデル、VITアーキテクチャベース、中国語視覚言語タスクをサポート
画像分類
Transformers

C
OFA-Sys
2,333
32
Omnitab Large Finetuned Wtq
OmniTabは表ベースの質問応答モデルで、自然および合成データによる事前学習を通じて少数ショットの表質問応答能力を実現しています。
質問応答システム
Transformers 英語

O
neulab
55
7
Bart Base Few Shot K 512 Finetuned Squad Seed 4
Apache-2.0
facebook/bart-baseをsquadデータセットでファインチューニングしたモデル、質問応答タスクに適しています
質問応答システム
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 256 Finetuned Squad Seed 2
Apache-2.0
BART-baseアーキテクチャに基づき、SQuADデータセットでファインチューニングされた質問応答モデルで、少数ショット学習シナリオに適しています
質問応答システム
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 2
Apache-2.0
SQuADデータセットでファインチューニングされたBART-baseモデル、質問応答タスクに適しています
質問応答システム
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 0
Apache-2.0
facebook/bart-baseモデルをSQuADデータセットでファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム
Transformers

B
anas-awadalla
13
0
Vit Msn Large 7
Apache-2.0
この視覚TransformerモデルはMSN手法で事前学習されており、少数ショットシナリオで優れた性能を発揮し、画像分類などのタスクに適しています
画像分類
Transformers

V
facebook
67
2
Vit Msn Base 4
Apache-2.0
この視覚TransformerモデルはMSN手法で事前学習されており、少数ショットシナリオで優れた性能を発揮し、画像分類などのタスクに適しています
画像分類
Transformers

V
facebook
62
1
Vit Msn Large
Apache-2.0
MSN手法で事前学習された視覚Transformerモデルで、少数ショットシナリオで優れた性能を発揮
画像分類
Transformers

V
facebook
48
1
Vit Msn Base
Apache-2.0
MSN手法で事前学習されたビジョントランスフォーマーモデルで、少数ショット画像分類タスクに適しています
画像分類
Transformers

V
facebook
694
0
Vit Msn Small
Apache-2.0
この視覚TransformerモデルはMSN手法で事前学習されており、少数ショット学習シナリオに適しており、特に画像分類タスクに最適です。
画像分類
Transformers

V
facebook
3,755
1
Xclip Base Patch16 Ucf 16 Shot
MIT
X-CLIPはCLIPの拡張版で、汎用的な動画言語理解に使用され、ゼロショット、少数ショット、または完全教師ありの動画分類タスクをサポートします。
動画処理
Transformers 英語

X
microsoft
92
2
Xclip Base Patch16 Ucf 8 Shot
MIT
X-CLIPはCLIPのミニマルな拡張で、一般的なビデオ言語理解のために設計されており、(ビデオ、テキスト)ペアでコントラスティブに訓練され、ゼロショット、少数ショット、または完全教師ありのビデオ分類やビデオ-テキスト検索などのタスクに適しています。
動画処理
Transformers 英語

X
microsoft
16
0
Xclip Base Patch16 Hmdb 16 Shot
MIT
X-CLIPはCLIPの拡張バージョンで、汎用的なビデオと言語の理解に使用され、ビデオ分類とビデオ-テキスト検索タスクをサポートします。
動画処理
Transformers 英語

X
microsoft
49
0
Xclip Base Patch16 Hmdb 2 Shot
MIT
X-CLIPはCLIPの拡張バージョンで、汎用的なビデオと言語の理解のために設計されており、ビデオとテキストのペアでコントラスティブ学習により訓練され、ゼロショット、少数ショット、および完全教師ありのビデオ分類タスクをサポートします。
テキスト生成ビデオ
Transformers 英語

X
microsoft
19
0
Jasmine 350M
JASMINEは少数ショット学習向けのアラビア語GPTモデルシリーズで、パラメータ数は3億から67億まであり、事前学習データ規模は235GBのテキストです。
大規模言語モデル
Transformers

J
UBC-NLP
81
5
607 Project Adversarial
adversarial_qaデータセットでトレーニングされた質問応答モデルで、敵対的な質問に答えるために使用されます。
質問応答システム
Transformers

6
KrishnaAgarwal16
22
0
Roberta Base Few Shot K 512 Finetuned Squad Seed 6
MIT
SQuADデータセットでファインチューニングされたRoBERTa-baseモデルに基づく質問応答モデルで、読解タスクに適しています。
質問応答システム
Transformers

R
anas-awadalla
21
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98