世界のAIモデルにアクセス - 次世代アプリ開発を加速
汎用から専門まで - 全AIモデルを一つのプラットフォームで
人気
最新
いいね数高
フィルター

2671個のモデルが条件に一致します

Indonesian Roberta Base Posp Tagger
MIT
これはインドネシア語RoBERTaモデルをファインチューニングした品詞タグ付けモデルで、indonluデータセットで訓練され、インドネシア語テキストの品詞タグ付けタスクに使用されます。
シーケンスラベリング Transformers その他
I
w11wo
2.2M
7
Gender Classification
PyTorchとHuggingPicsを使用して構築された画像分類モデルで、画像内の性別を識別します
画像分類 Transformers
G
rizvandwiki
1.8M
48
Wav2vec2 Base Finetuned Speech Commands V0.02
Apache-2.0
このモデルはfacebook/wav2vec2-baseをspeech_commandsデータセットでファインチューニングした音声コマンド認識モデルで、精度は97.59%です。
音声分類 Transformers
W
0xb1
1.2M
0
Filipino Wav2vec2 L Xls R 300m Official
Apache-2.0
facebook/wav2vec2-xls-r-300mをフィリピン語音声データセットでファインチューニングした音声認識モデル
音声認識 Transformers
F
Khalsuu
1.2M
1
Gender Classification 2
これはPyTorchフレームワークとHuggingPicsツールで生成された画像分類モデルで、性別分類タスク専用です。
画像分類 Transformers
G
rizvandwiki
906.98k
32
Bert Base Arabertv02
AraBERTはBERTアーキテクチャに基づくアラビア語の事前学習言語モデルで、アラビア語理解タスクに特化して最適化されています。
大規模言語モデル アラビア語
B
aubmindlab
666.17k
35
Bloomz 560m
Openrail
BLOOMZシリーズの中型多言語モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル Transformers 複数言語対応
B
bigscience
593.72k
122
Whisper Medium Fleurs Lang Id
Apache-2.0
OpenAI Whisper-mediumをファインチューニングした音声言語識別モデルで、FLEURSデータセットで88.05%の精度を達成
音声分類 Transformers
W
sanchit-gandhi
590.30k
14
Distil Large V3
MIT
Distil-WhisperはWhisper large-v3の知識蒸留バージョンで、英語自動音声認識に特化し、より高速な推論速度を提供しながら、オリジナルモデルに近い精度を維持します。
音声認識 英語
D
distil-whisper
417.11k
311
Distilroberta Finetuned Financial News Sentiment Analysis
Apache-2.0
DistilRoBERTaを微調整した金融ニュース感情分析モデルで、正解率は98.23%に達します。
テキスト分類 Transformers
D
mrm8488
310.81k
386
Wikineural Multilingual Ner
ニューラルネットワークと知識ベースを融合した多言語固有表現認識モデルで、9種類の言語をサポートします。
シーケンスラベリング Transformers 複数言語対応
W
Babelscape
258.08k
142
Whisper Small Ft Common Language Id
Apache-2.0
openai/whisper-smallをファインチューニングした汎用言語識別モデルで、評価データセットでの精度は88.6%
音声分類 Transformers
W
sanchit-gandhi
256.20k
2
Distil Medium.en
MIT
Distil-WhisperはWhisperモデルの蒸留バージョンで、オリジナルより6倍速く、サイズが49%縮小され、英語音声認識タスクでオリジナルに近い性能を維持しています。
音声認識 英語
D
distil-whisper
186.85k
120
Skin Type
人間の肌タイプを分類するための画像分類モデルで、公平性を実現し、すべての肌色で正確に動作することを目指しています。
画像分類 Transformers
S
driboune
182.21k
3
Ibert Roberta Base Abusive Or Threatening Speech
このモデルはibert-roberta-baseをファインチューニングしたバージョンで、誹謗中傷や脅迫的発言の検出に特化しています。
テキスト分類 Transformers
I
DunnBC22
174.14k
3
Wavlm Libri Clean 100h Base Plus
microsoft/wavlm-base-plusを基にLIBRISPEECH_ASR - CLEANデータセットでファインチューニングした自動音声認識モデル
音声認識 Transformers
W
patrickvonplaten
126.17k
3
Classify News Category Iptc
これは多言語ニュース分類モデルで、IPTCニュースコードに基づいてノルウェー語、スウェーデン語、英語のニュース内容を分類でき、16の事前定義されたカテゴリをサポートします。
テキスト分類 Transformers
C
ilsilfverskiold
125.81k
1
Bpmn Information Extraction V2
Apache-2.0
bert-base-casedをファインチューニングしたBPMNプロセス情報抽出モデルで、テキスト化されたプロセス記述から実行者、タスクなどの主要要素を抽出
シーケンスラベリング Transformers
B
jtlicardo
112.15k
14
Nb Wav2vec2 1b Nynorsk
Apache-2.0
Facebook/MetaのXLS-R特徴抽出器をファインチューニングしたニーノシュク自動音声認識モデルで、NPSCテストセットでWERが11.32%を達成。
音声認識 Transformers その他
N
NbAiLab
96.58k
0
CLIP Convnext Large D 320.laion2B S29b B131k Ft Soup
MIT
ConvNeXt-Largeアーキテクチャに基づくCLIPモデルで、LAION-2Bデータセットで訓練され、ゼロショット画像分類と画像テキスト検索タスクをサポート
テキスト生成画像 TensorBoard
C
laion
83.56k
19
CLIP Convnext Large D.laion2b S26b B102k Augreg
MIT
LAION-2Bデータセットでトレーニングされた大規模ConvNeXt-Large CLIPモデル、ゼロショット画像分類と画像テキスト検索タスクをサポート
テキスト生成画像 TensorBoard
C
laion
80.74k
5
CLIP ViT L 14 Laion2b S32b B82k
MIT
OpenCLIPフレームワークを使用し、LAION-2B英語サブセットでトレーニングされた視覚言語モデル。ゼロショット画像分類と画像テキスト検索をサポート
テキスト生成画像 TensorBoard
C
laion
79.01k
48
Nb Wav2vec2 300m Nynorsk
Apache-2.0
VoxRex特徴抽出器をベースに微調整された3億パラメータの音声認識モデルで、ニューノルウェー語(Nynorsk)に最適化されており、NPSCテストセットでのWERは12.22%です。
音声認識 Transformers その他
N
NbAiLab
73.53k
0
Yolov8m Table Extraction
YOLOv8mベースの物体検出モデルで、表抽出タスク専用に設計されており、境界線あり・なしの表を検出可能です。
物体検出 TensorBoard
Y
keremberke
69.06k
40
Yolov5n License Plate
YOLOv5nベースの軽量ナンバープレート検出モデル、ナンバープレート認識タスクに最適化
物体検出 TensorBoard
Y
keremberke
68.64k
17
Table Detection And Extraction
YOLOv8sベースのテーブル検出モデルで、画像内のボーダー付き・ボーダーレステーブルを正確に識別可能
物体検出 TensorBoard 英語
T
foduucom
55.45k
88
Distilbert NER
Apache-2.0
DistilBERTをファインチューニングした軽量な固有表現認識モデル、性能と効率のバランス
シーケンスラベリング Transformers 英語
D
dslim
48.95k
34
Distil Large V2
MIT
Distil-WhisperはWhisperモデルの蒸留版で、速度が6倍向上し、サイズが49%縮小され、非分布評価セットでの性能はWERでわずか1%の差しかありません。
音声認識 英語
D
distil-whisper
42.65k
508
CLIP Convnext Base W Laion2b S13b B82k Augreg
MIT
ConvNeXt-Baseアーキテクチャを基にしたCLIPモデルで、OpenCLIPを使用してLAION-5Bのサブセットでトレーニングされ、ゼロショット画像分類タスクに焦点を当てています
テキスト生成画像 TensorBoard
C
laion
40.86k
7
Wav2vec2 Lg Xlsr En Speech Emotion Recognition
Apache-2.0
Wav2Vec 2.0をファインチューニングした音声感情認識モデルで、8種類の英語感情を識別可能、RAVDESSデータセットで82.23%の精度を達成
音声分類 Transformers
W
ehcalabres
39.83k
221
Gender Classification
Apache-2.0
distilbert-base-uncasedをファインチューニングした性別分類モデルで、評価セットで1.0の精度を達成
テキスト分類 Transformers
G
padmajabfrl
39.68k
29
Distil Small.en
MIT
Distil-WhisperはWhisperモデルの蒸留バージョンで、速度が6倍速く、サイズが49%縮小され、非分布評価セットで1% WERに近い性能を発揮します。
音声認識 Transformers 英語
D
distil-whisper
33.51k
97
English Filipino Wav2vec2 L Xls R Test 09
Apache-2.0
jonatasgrosman/wav2vec2-large-xlsr-53-englishをベースにファインチューニングした英語-フィリピン語音声認識モデル、評価セットでのWERは0.5750
音声認識 Transformers
E
Khalsuu
29.03k
1
Yolov8s Signature Detector
YOLOv8sをファインチューニングした手書き署名検出モデルで、ドキュメント画像内の署名位置特定に特化
物体検出 TensorBoard
Y
tech4humans
28.14k
15
Nb Whisper Tiny Verbatim
Apache-2.0
ノルウェー国立図書館がOpenAI Whisperを基に開発したノルウェー語自動音声認識モデル。逐語転写シナリオに特化して最適化され、全小文字無句読点テキストを出力
音声認識 複数言語対応
N
NbAiLabBeta
24.54k
2
Nb Wav2vec2 1b Bokmaal
Apache-2.0
Facebook/MetaのXLS - R特徴抽出器をベースに微調整されたノルウェー語自動音声認識モデルで、NPSCテストセットでの単語誤り率は6.33%
音声認識 Transformers その他
N
NbAiLab
23.95k
3
Biomistral 7B
Apache-2.0
BioMistralはMistralアーキテクチャを基に、医学分野向けに最適化されたオープンソース大規模言語モデルで、PubMed Centralのオープンアクセステキストデータを用いて追加事前学習を行い、多言語医学質問応答タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
B
BioMistral
22.59k
428
Aragpt2 Base
AraGPT2はTransformerアーキテクチャに基づくアラビア語生成の事前学習モデルで、AUB MIND研究所によって開発され、さまざまなサイズのモデルバリアントをサポートしています。
大規模言語モデル アラビア語
A
aubmindlab
21.26k
25
Cner Base
CNERモデルはDeBERTa-v3-baseアーキテクチャに基づく固有表現認識モデルで、きめ細かいラベル付きの概念と固有表現を統合的に識別・分類できます。
シーケンスラベリング Transformers 英語
C
Babelscape
20.66k
6
Fullstop Punctuation Multilingual Base
MIT
FullStopはTransformerベースの多言語句読点予測モデルで、英語、ドイツ語、フランス語、イタリア語、オランダ語など複数の言語をサポートしています。
シーケンスラベリング Transformers 複数言語対応
F
oliverguhr
19.41k
6
Spelling Correction English Base
MIT
これは実験的モデルで、英語テキストのスペルミスや句読点を修正することを目的としています。
テキスト生成 Transformers 英語
S
oliverguhr
17.59k
76
Vit Base Patch16 224 In21k Finetuned Cifar10
Apache-2.0
Google Vision Transformer (ViT)アーキテクチャに基づく事前学習モデルで、CIFAR-10データセットでファインチューニングされ、画像分類タスクに使用されます。
画像分類 Transformers
V
aaraki
16.69k
10
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase