The Teacher V 2
Transformersアーキテクチャに基づくゼロショット分類モデルで、微調整なしでテキストを分類できます
大規模言語モデル
Transformers

T
shiviktech
196
0
F0
これは自動生成されたtransformersモデルカードで、具体的な情報は後で補充されます。
大規模言語モデル
Transformers

F
vdmbrsv
2,602
1
Nal V40 Sdxl
その他
Nalgotic DreamsはStable Diffusion XLをベースにしたテキストから画像を生成するモデルで、高品質なアニメスタイルの画像、特に明るく精細なイラストスタイルの女の子のイメージ生成に特化しています。
画像生成 英語
N
John6666
203
1
Yinglong 300m
応龍は時系列予測に使用される基礎モデルで、780億の時点で事前学習され、時系列予測タスクに強力なサポートを提供します。
気候モデル
Safetensors
Y
qcw2333
1,996
1
Magma 8B GGUF
MIT
Magma-8BはGGUF形式の画像テキストからテキストへの変換モデルで、マルチモーダルタスク処理に適しています。
画像生成テキスト
M
Mungert
545
1
Uzmi Gpt
Apache-2.0
GPT-2はOpenAIによって開発されたオープンソースの言語モデルで、Transformerアーキテクチャに基づいており、一貫性のあるテキストを生成できます。
大規模言語モデル 英語
U
rajan3208
30
2
Arshgpt
MIT
Transformers は Hugging Face によって開発されたオープンソースライブラリで、自然言語処理タスクのためのさまざまな事前学習モデルを提供します。
大規模言語モデル
Transformers

A
arshiaafshani
69
5
Xlm Roberta Large Pooled Cap Media Minor
MIT
xlm-roberta-largeモデルをファインチューニングした多言語テキスト分類モデルで、英語とデンマーク語をサポートし、政治アジェンダとメディアコンテンツの分類タスクに特化しています。
テキスト分類
PyTorch その他
X
poltextlab
163
0
Openvision Vit Small Patch8 384
Apache-2.0
OpenVisionは完全にオープンでコストパフォーマンスに優れた先進的なビジョンエンコーダーファミリーで、マルチモーダル学習に焦点を当てています。
マルチモーダル融合
O
UCSC-VLAA
21
0
Openvision Vit Small Patch16 224
Apache-2.0
OpenVisionは、完全にオープンでコストパフォーマンスに優れた先進的な視覚エンコーダファミリーで、マルチモーダル学習に焦点を当てています。
画像の拡張
O
UCSC-VLAA
17
0
Openvision Vit Tiny Patch8 224
Apache-2.0
OpenVisionは完全オープンで高コストパフォーマンスな先進的な視覚エンコーダーファミリーで、マルチモーダル学習に焦点を当てています。
マルチモーダル融合
O
UCSC-VLAA
123
0
Openvision Vit Tiny Patch16 384
Apache-2.0
OpenVisionは完全にオープンでコストパフォーマンスに優れた先進的な視覚エンコーダーファミリーで、マルチモーダル学習に焦点を当てています。
O
UCSC-VLAA
19
0
Bart Large Empathetic Dialogues
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報が必要です。
大規模言語モデル
Transformers

B
sourname
199
1
Falcon H1 1.5B Deep Base
その他
Falcon-H1はTIIが開発した効率的なハイブリッドアーキテクチャ言語モデルで、TransformerとMambaアーキテクチャを組み合わせ、多言語タスクをサポート
大規模言語モデル
Transformers 複数言語対応

F
tiiuae
194
3
Openbioner Base
MIT
OpenBioNERは、オープンドメインの生物医学命名エンティティ認識(NER)に特化した軽量BERTモデルで、対象エンティティタイプの自然言語記述のみで未見のエンティティタイプを識別でき、再トレーニングする必要がありません。
シーケンスラベリング 英語
O
disi-unibo-nlp
210
1
Xglm 564M
MIT
XGLM-564M は多言語自己回帰言語モデルで、5.64億のパラメータを含み、30言語のバランスの取れたコーパスに基づいて訓練され、合計5000億のサブワードで構成されています。
大規模言語モデル 複数言語対応
X
facebook
11.13k
51
Zero Mistral 24B
MIT
Zero-Mistral-24BはMistral-Small-3.1-24B-Instruct-2503を改良した純粋なテキストモデルで、主にロシア語と英語に適応し、元の視覚機能を削除し、テキスト生成タスクに焦点を当てています。
大規模言語モデル
Transformers 複数言語対応

Z
ZeroAgency
41
2
Orpo Med V3
Apache-2.0
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル
Transformers

O
Jayant9928
2,852
3
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414はTHUDMによって開発された大規模言語モデルで、320億のパラメータを持ち、さまざまなテキスト生成タスクに適しています。
大規模言語モデル
T
DevQuasar
13.15k
5
Style 250412.vit Base Patch16 Siglip 384.v2 Webli
Vision Transformerアーキテクチャに基づく視覚モデルで、SigLIP(Sigmoid Loss for Language-Image Pretraining)訓練方法を採用し、画像理解タスクに適しています。
画像分類
Transformers

S
p1atdev
66
0
Xlm Roberta Large Pooled Cap Minor
MIT
xlm-roberta-largeをファインチューニングした多言語テキスト分類モデルで、比較アジェンダプロジェクトの副次テーマコード分類に使用
テキスト分類
PyTorch その他
X
poltextlab
61
0
PURE
PUREは、低レベル視覚タスクを解決するためにマルチモーダル大規模言語モデル(MLLM)をバックボーンネットワークとして採用した最初のフレームワークです。
画像の拡張
Safetensors
P
nonwhy
326
1
Sam Vit Base
MIT
これはFacebook SAMモデル(sam-vit-base)の改良版で、CVATにおける画像セグメンテーションタスク向けに最適化されています。
画像セグメンテーション 複数言語対応
S
sajabdoli
184
0
Quantum STT
Apache-2.0
Quantum_STT は、大規模な弱教師あり学習に基づく先進的な自動音声認識(ASR)および音声翻訳モデルで、複数の言語とタスクをサポートしています。
音声認識
Transformers 複数言語対応

Q
sbapan41
100
1
Kok Basev2
Apache-2.0
Kok-Baseは多言語モデルで、英語、アラビア語、チェコ語をサポートし、さまざまな自然言語処理タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

K
moelanoby
195
1
Internvl2 5 HiMTok 8B
Apache-2.0
HiMTokはInternVL2_5-8B大規模マルチモーダルモデルをファインチューニングした階層型マスクトークン学習フレームワークで、画像セグメンテーションタスクに特化しています。
画像生成テキスト
I
yayafengzi
16
3
Llama 3.1 8B AthenaSky MegaMix
Apache-2.0
MergeKitを使用して複数の高品質モデルを融合した8Bパラメータの大規模言語モデルで、推論、対話、創造的生成能力を最適化
大規模言語モデル
Transformers 英語

L
ZeroXClem
105
2
Ibm Granite.granite Vision 3.2 2b GGUF
Granite Vision 3.2 2B は IBM が開発した視覚言語モデルで、画像テキストからテキストへの変換タスクに特化しています。
画像生成テキスト
I
DevQuasar
211
1
Yoloe
YOLOEは効率的で統一されたオープンな物体検出とセグメンテーションモデルで、テキストや視覚入力、プロンプト不要パラダイムなど様々なプロンプトメカニズムをサポートし、リアルタイムの万能視覚認識を実現します。
物体検出
Y
jameslahm
40.34k
32
Distill Any Depth Small Hf
MIT
Distill-Any-Depthは知識蒸留アルゴリズムで訓練されたSOTA単眼深度推定モデルで、効率的かつ正確に深度推定が可能です。
3Dビジョン
Transformers

D
xingyang1
1,214
3
Illumiyume Anime Style Noobai Xl Nai Xl V10 Sdxl
その他
安定拡散XLをベースにしたアニメスタイルのテキストから画像生成モデル、高品質なアニメキャラクター作成に特化
画像生成 英語
I
John6666
5,080
1
Bytedance Research.ui TARS 72B SFT GGUF
バイトダンス研究チームが発表した72Bパラメータ規模のマルチモーダル基礎モデルで、画像テキストからテキストへの変換タスクに特化
画像生成テキスト
B
DevQuasar
81
1
Allenai.olmocr 7B 0225 Preview GGUF
olmOCR-7B-0225-preview は AllenAI によって開発されたOCR技術に基づく画像テキストからテキストへの変換モデルで、画像からテキスト内容を抽出・認識することを目的としています。
大規模言語モデル
A
DevQuasar
239
1
Llava NeXT Video 7B Hf
LLaVA-NeXT-Video-7B-hf は動画ベースのマルチモーダルモデルで、動画とテキスト入力を処理し、テキスト出力を生成できます。
ビデオ生成テキスト
Safetensors 英語
L
FriendliAI
30
0
Whisper Large V3 Turbo
MIT
Whisper large-v3-turboはOpenAIが提案した自動音声認識および音声翻訳モデルで、大規模な弱教師あり学習に基づき、複数言語をサポートしています。
音声認識
Transformers 複数言語対応

W
Daemontatox
26
1
Qwen2.5 Dyanka 7B Preview
Apache-2.0
Qwen2.5アーキテクチャに基づく7Bパラメータ規模の言語モデルで、TIESメソッドにより複数の事前学習モデルを融合
大規模言語モデル
Transformers

Q
Xiaojian9992024
1,497
8
Vit So400m Patch16 Siglip 512.v2 Webli
Apache-2.0
SigLIP 2に基づく視覚Transformerモデルで、画像特徴抽出のために設計されており、多言語視覚-言語タスクに適しています。
テキスト生成画像
Transformers

V
timm
2,766
0
Vit So400m Patch16 Siglip 384.v2 Webli
Apache-2.0
SigLIP 2ベースの視覚Transformerモデル、画像特徴抽出のために設計され、webliデータセットで事前学習済み
テキスト生成画像
Transformers

V
timm
2,073
0
Vit So400m Patch14 Siglip Gap 378.v2 Webli
Apache-2.0
SigLIP 2アーキテクチャに基づく視覚Transformerモデル、WebLIデータセットで事前学習され、アテンションプーリングヘッドを削除しグローバル平均プーリングを採用
画像分類
Transformers

V
timm
20
0
Vit So400m Patch14 Siglip 378.v2 Webli
Apache-2.0
SigLIP 2に基づく視覚Transformerモデルで、画像特徴抽出のために設計され、webliデータセットでトレーニングされました
テキスト生成画像
Transformers

V
timm
30
0
- 1
- 2
- 3
- 4
- 5
- 6
- 8
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98