# ゼロサンプル学習

Sarvam Finetune
これはHub上に公開されたtransformersモデルで、具体的な機能と詳細情報は補充待ちです。
大規模言語モデル Transformers
S
jk12p
112
1
Um P2 Fine Tuned Llama Full 2
これはHubに公開されたtransformersモデルです。具体的な機能と用途は後日追加予定です。
大規模言語モデル Transformers
U
ElijahLiew2
152
1
Yinglong 110m
応龍は時系列予測に使用する事前学習モデルで、780億の時点で事前学習を行い、時系列予測タスクに強力なサポートを提供します。
気候モデル Safetensors
Y
qcw2333
348
0
CLIP ViT L Rho50 K1 Constrained FARE2
MIT
openai/clip-vit-large-patch14をベースに微調整した特徴抽出モデルで、画像とテキストエンコーダを最適化しました。
マルチモーダル融合 Transformers
C
LEAF-CLIP
253
0
Llama 4 Scout 17B 16E Instruct Q8 0
その他
Llama-4-Scout-17B-16E-InstructはMetaが公開した大規模言語モデルで、指令に従うタスクに特化しており、様々なテキスト生成シナリオに適しています。
大規模言語モデル Transformers
L
Mogith
385
0
Qwen.qwen2.5 VL 72B Instruct GGUF
Qwen2.5-VL-72B-Instructは通義千問チームによって開発された大規模ビジュアル言語モデルで、画像とテキストのマルチモーダル理解と生成をサポートします。
画像生成テキスト
Q
DevQuasar
281
0
Pae Llava 7b
PAE-LLaVa-7BはPAE(Proposer - Agent - Evaluator)フレームワークに基づく基礎モデルのインターネットインテリジェントエージェントで、自主技能発見に特化しています。
テキスト生成画像 Safetensors
P
yifeizhou
186
1
Llama 3.2 1B It Chinese Kyara
Kyaraは、知識検索プロセスを通じて言語モデルを改善する実験プロジェクトで、特に繁体字中国語などのリソースが少ない言語に対して、モデルの知識適応能力と言語理解能力の向上に焦点を当てています。
大規模言語モデル Transformers 複数言語対応
L
zake7749
1,533
5
Llama 3.2 3B It Chinese Kyara
Kyaraは、知識検索プロセスを通じて言語モデルを改善する実験プロジェクトで、特に繁体字中国語などのリソースが少ない言語に対して、モデルの知識適応能力と言語理解能力の向上に焦点を当てています。
大規模言語モデル Transformers 複数言語対応
L
zake7749
1,613
3
Videochat2 HD Stage4 Mistral 7B Hf
MIT
VideoChat2-HD-hfは、Mistral-7Bに基づくマルチモーダルビデオ理解モデルで、ビデオテキスト変換タスクに特化しています。
ビデオ生成テキスト
V
OpenGVLab
393
3
Clip Flant5 Xl
Apache-2.0
画像 - テキスト検索タスク用に微調整されたビジュアル - 言語生成モデルで、google/flan-t5-xlをベースに改良されています。
テキスト生成画像 Transformers 英語
C
zhiqiulin
13.44k
2
Whisper Tiny.en
Apache-2.0
Whisperは、68万時間のアノテーション付きデータで学習された事前学習済みの自動音声認識(ASR)モデルで、強力な汎化能力を持っています。
音声認識 英語
W
openai
145.30k
103
Whisper Large
Apache-2.0
Whisperは、自動音声認識(ASR)と音声翻訳に使用される事前学習モデルで、68万時間のラベル付きデータで学習され、強力な汎化能力を持っています。
音声認識 複数言語対応
W
openai
175.34k
512
Xlm Roberta Large
XLM - RoBERTa - largeは、RoBERTaアーキテクチャに基づく多言語事前学習言語モデルで、複数の言語の自然言語処理タスクをサポートします。
大規模言語モデル Transformers
X
kornesh
2,154
0
Doc2query T5 Large Msmarco
Doc2Queryは文書検索に使用されるモデルで、文書をクエリに変換して情報検索の効果を改善することができます。
大規模言語モデル
D
castorini
15
1
Xlm Roberta Base
XLM - RoBERTaはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、100種類の言語をサポートし、言語間理解タスクに適しています。
大規模言語モデル Transformers
X
kornesh
30
1
Albert Base V1 Mnli
このモデルは自然言語推論(NLI)タスクに特化しており、単純なヒューリスティック手法を超え、複雑な推論シナリオでのモデルの汎化能力を向上させることを目的としています。
大規模言語モデル Transformers
A
prajjwal1
23
0
Fairseq Dense 6.7B
これは、Artetxeらの論文『Efficient Large Scale Language Modeling with Mixtures of Experts』におけるオリジナルの密集型67億パラメータモデルのHugging Face transformers適合バージョンです。
大規模言語モデル Transformers 英語
F
KoboldAI
123
3
GPT2 RU GAME
GPT - 2アーキテクチャに基づくロシア語テキスト生成モデルで、AI Foreverチームによって開発されました。
大規模言語モデル Transformers その他
G
Mary222
20
0
SBERBANK RUS
GPT - 2のロシア語版は、OpenAIのGPT - 2アーキテクチャに基づいて開発されたロシア語テキスト生成モデルで、ロシア語テキストに特化して最適化と学習が行われています。
大規模言語モデル Transformers その他
S
Mary222
16
2
Distilbert Base Multilingual Cased
Apache-2.0
DistilBERTはBERTベース多言語モデルの蒸留バージョンで、BERTの97%の性能を維持しながら、パラメータが少なく、速度が速いです。104種類の言語をサポートし、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers 複数言語対応
D
distilbert
2.8M
187
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase