Xlangai Jedi 3B 1080p GGUF
Apache-2.0
Jedi-3B-1080pはxlangaiによって開発された3Bパラメータモデルで、llama.cppによる量子化処理が施されており、画像テキスト生成タスクに適しています。
大規模言語モデル 英語
X
bartowski
148
1
Falcon H1 0.5B Instruct
その他
ファルコン-H1はTIIによって開発されたハイブリッドTransformers+Mambaアーキテクチャの因果デコーダ専用言語モデルで、英語をサポートし、優れた性能を発揮します。
大規模言語モデル
Transformers

F
tiiuae
492
10
Smolvlm2 2.2B Instruct I1 GGUF
Apache-2.0
SmolVLM2-2.2B-Instructは2.2Bパラメータ規模の視覚言語モデルで、ビデオテキストからテキストへのタスクに特化し、英語をサポートしています。
英語
S
mradermacher
285
0
Nvidia Llama 3 1 Nemotron Ultra 253B V1 GGUF
その他
これはNVIDIA Llama-3_1-Nemotron-Ultra-253B-v1モデルの量子化バージョンで、llama.cppを使用して量子化されており、複数の量子化タイプをサポートし、さまざまなハードウェア環境に適しています。
大規模言語モデル 英語
N
bartowski
1,607
3
Deepseek R1 Distill Qwen 32B Medical
DeepSeek-R1はdeepseek-aiのベースモデルを改良したバージョンで、音声テキスト変換タスクに特化しており、英語言語処理をサポートしています。
大規模言語モデル
Transformers 英語

D
beita6969
455
5
Wav2vec Vm Finetune
Apache-2.0
facebook/wav2vec2-xls-r-300mをファインチューニングしたボイスメール検出モデルで、ボイスメールの挨拶と実際の応答を区別するために特別に設計されています。
音声分類
Transformers 英語

W
jakeBland
5,000
5
Clip Vit Base Patch32 Lego Brick
MIT
CLIPモデルをファインチューニングしたレゴブロックの画像-テキストマッチングモデルで、レゴブロックとその説明を識別するために設計されています。
テキスト生成画像
Transformers 英語

C
armaggheddon97
44
0
Gte Modernbert Base
Apache-2.0
ModernBERT事前学習エンコーダーに基づくテキスト埋め込みモデルで、8192トークンの長文処理をサポートし、MTEB、LoCO、COIRなどの評価タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

G
Alibaba-NLP
74.52k
138
FLUX.1 Redux Dev GGUF
その他
FLUX.1-Redux-dev はテキストから画像を生成するモデルで、テキスト記述を高品質な画像に変換することに特化しています。
テキスト生成画像 英語
F
gaianet
91
4
Ichigo Llama3.1 S Instruct V0.4 I1 GGUF
Apache-2.0
これはMenlo/Ichigo-llama3.1-s-instruct-v0.4モデルのGGUF量子化バージョンで、リソースが限られた環境での音声言語処理タスクに適しています。
大規模言語モデル 英語
I
mradermacher
429
3
Gte En Mlm Base
Apache-2.0
GTE-v1.5シリーズの英語テキストエンコーダーで、BERTアーキテクチャを改良し、最大8192のコンテキスト長をサポート、英語テキスト表現タスクに適しています。
テキスト埋め込み 複数言語対応
G
Alibaba-NLP
231
7
Cogvideox 2b
Apache-2.0
CogVideoXは清影に由来するオープンソースの動画生成モデルで、2Bバージョンは入門モデルとして互換性と実行・二次開発コストのバランスが取れています。
テキスト生成ビデオ 英語
C
THUDM
40.55k
324
Gemma 2 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiモデルを構築した技術を基に開発されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
342.64k
1,064
Gemma 2 2b
GemmaはGoogleが提供する軽量で最先端のオープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
502.52k
540
Gemma 2 27b It
GemmaはGoogleが提供する軽量オープンソース大規模言語モデルシリーズで、Geminiモデルと同じ技術に基づいて構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
160.10k
543
Gliner Large V2
Apache-2.0
GLiNERは双方向Transformerベースの固有表現認識モデルで、あらゆるエンティティタイプを認識可能です。従来のNERモデルよりも柔軟で、大規模言語モデルよりも効率的です。
シーケンスラベリング
G
urchade
15.73k
52
Gemma 7b It
GemmaはGoogleが提供する軽量オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、テキスト生成タスクに適しています。
大規模言語モデル
G
google
77.07k
1,163
M2 BERT 128 Retrieval Encoder V1
Apache-2.0
M2-BERT-128は論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案された8000万パラメータの検索モデルチェックポイント
テキスト埋め込み
Transformers 英語

M
hazyresearch
19
3
Gemma 7b
GemmaはGoogleが提供する軽量オープンソースの大規模言語モデルで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
G
google
55.61k
3,160
Velara 11B V2 GGUF
Velara 11B v2はMistralアーキテクチャに基づく大規模言語モデルで、テキスト生成タスクに特化しており、Alpaca-InstructOnly2プロンプトテンプレートを採用しています。
大規模言語モデル 英語
V
TheBloke
1,047
9
Synapsellm 7b Mistral V0.4 Preview2
Apache-2.0
SynapseLLMはWebraftAIが開発したMistralを微調整した7Bパラメータの大規模言語モデルで、コードと一般的なQ&Aシナリオに特化しています。
大規模言語モデル
Transformers 複数言語対応

S
WebraftAI
108
1
Tinyllama V0 GGUF
MIT
TinyLLama-v0は軽量言語モデルで、GGUFフォーマットで提供され、テキスト生成タスクに適しています。
大規模言語モデル 英語
T
aladar
72
2
Chessgpt Chat V1
Apache-2.0
Chessgpt-Base-v1を基に教師あり微調整(SFT)を行った28億パラメータの対話モデルで、チェス分野に特化
大規模言語モデル
Transformers 英語

C
Waterhorse
218
11
Lamini Flan T5 248M
LaMini-Flan-T5-248Mはgoogle/flan-t5-baseをLaMini-instructionデータセットでファインチューニングした248Mパラメータのモデルで、LaMini-LMシリーズに属し、自然言語命令への応答に特化しています。
大規模言語モデル
Transformers 英語

L
MBZUAI
5,652
76
CLIP ViT L 14 Laion2b S32b B82k
MIT
OpenCLIPフレームワークを使用し、LAION-2B英語サブセットでトレーニングされた視覚言語モデル。ゼロショット画像分類と画像テキスト検索をサポート
テキスト生成画像
TensorBoard

C
laion
79.01k
48
Wav2vec2 Base Ft Cv3 V3
Apache-2.0
このモデルはfacebook/wav2vec2-baseをCommon Voice 3.0英語データセットで微調整した音声認識モデルで、テストセットで0.247の単語誤り率を達成しました。
音声認識
Transformers

W
danieleV9H
120
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98