Lightblue Reranker 0.5 Cont Filt Gguf
Qwen2.5-0.5B-Instructをファインチューニングしたテキストランキングモデルで、情報検索と関連性ランキングタスクに適しています
大規模言語モデル
L
RichardErkhov
2,130
0
Vit GPT2 Image Captioning Model
ViT-GPT2アーキテクチャに基づく画像キャプション生成モデルで、入力画像を記述テキストに変換可能
画像生成テキスト
Transformers

V
motheecreator
142
0
Xfinder Llama38it
xFinder-llama38it は Llama3-8B-Instruct をファインチューニングしたキーアンサー抽出モデルで、大規模言語モデルの出力からキーアンサーを抽出する精度とロバスト性の向上を目的としています。
大規模言語モデル
Transformers 英語

X
IAAR-Shanghai
189
5
Paligemma 3b Pt 448
PaliGemmaはSigLIP視覚モデルとGemma言語モデルを基盤とした軽量で多機能な視覚言語モデルで、多言語の画像テキスト相互作用タスクをサポートします。
画像生成テキスト
Transformers

P
google
2,708
29
Bielik 7B Instruct V0.1 GGUF
これはポーランド語の7Bパラメータ命令ファインチューニングモデルで、SpeakLeashのBielik-7B-v0.1モデルを基に開発され、GGUFフォーマットで量子化されています。
大規模言語モデル その他
B
speakleash
951
14
Geitje 7B Chat GPTQ
Apache-2.0
GEITje-7B-chatはMistralアーキテクチャに基づくオランダ語会話モデルで、チャットや対話タスクに最適化されています。
大規模言語モデル
Transformers その他

G
TheBloke
21
4
Layout Qa Hparam Tuning
microsoft/layoutlmv2-base-uncasedをファインチューニングしたドキュメントQAモデル、ドキュメントレイアウト理解とQAタスクに適しています
質問応答システム
Transformers

L
PrimWong
14
0
Git Base Next
MIT
microsoft/git-baseをファインチューニングした画像からテキストへの変換モデル
画像生成テキスト
Transformers その他

G
swaroopajit
19
1
Blip Base Captioning Ft Hl Scenes
Apache-2.0
このモデルはBLIPアーキテクチャに基づく画像キャプション生成モデルで、特にシーンの高レベル記述に特化してファインチューニングされています。
画像生成テキスト
Transformers 英語

B
michelecafagna26
13
0
Whisper Tiny Finetuned Gtzan
Apache-2.0
openai/whisper-tinyをGTZANデータセットでファインチューニングした音声分類モデル、精度91%達成
音声分類
Transformers

W
vineetsharma
17
0
Distilhubert Finetuned Gtzan
Apache-2.0
このモデルはDistilHuBERTをGTZAN音楽分類データセットでファインチューニングしたバージョンで、主に音楽ジャンル分類タスクに使用されます。
音声分類
Transformers

D
pollner
24
0
Saved Model Git Base
MIT
microsoft/git-baseを画像フォルダデータセットでファインチューニングした視覚言語モデルで、主に画像キャプション生成タスクに使用されます
画像生成テキスト
Transformers その他

S
holipori
13
0
Segformer B0 Finetuned Segments Test
その他
nvidia/mit-b0をベースにbilal01/stamp-verification-testデータセットでファインチューニングした画像セグメンテーションモデル
画像セグメンテーション
Transformers

S
bilal01
15
0
Xtremedistil L6 H384 Uncased Finetuned Squad
MIT
このモデルはmicrosoft/xtremedistil-l6-h384-uncasedをSQuADデータセットでファインチューニングしたバージョンで、主に質問応答タスクに使用されます。
質問応答システム
Transformers

X
tachyon-11
20
0
Whisper Medium Tr
Apache-2.0
このモデルはOpenAIのWhisper Mediumモデルをトルコ語データセットでファインチューニングした音声認識モデルで、単語誤り率が大幅に改善されています。
音声認識
Transformers その他

W
sgangireddy
81
4
Whisper Medium Jp
Apache-2.0
openai/whisper-mediumをcommon_voice_11_0データセットでファインチューニングした日本語音声認識モデル
音声認識
Transformers 日本語

W
vumichien
4,542
25
Xlm Roberta Base Finetuned Urdu
xlm-roberta-baseアーキテクチャに基づくウルドゥー語感情分類モデルで、ウルドゥー語の文章を二項感情分類できます
テキスト分類
Transformers その他

X
Aimlab
129
3
Segformer B0 Finetuned Segments Water 2
Apache-2.0
nvidia/mit-b0をベースにimadd/water_datasetデータセットでファインチューニングした画像セグメンテーションモデルで、水域セグメンテーションタスク用
画像セグメンテーション
Transformers

S
imadd
51
1
Distilbert Base Uncased Becas 4
Apache-2.0
distilbert-base-uncasedをbecasv2データセットでファインチューニングしたテキスト分類モデル
大規模言語モデル
Transformers

D
Evelyn18
20
0
Distilroberta Base Model Transcript
Apache-2.0
distilroberta-baseモデルをファインチューニングしたテキスト処理モデルで、汎用NLPタスクに適しています
大規模言語モデル
Transformers

D
mahaamami
14
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98