Google.gemma 3 12b It Qat Int4 Unquantized GGUF
これは量子化技術を通じて知識の広範な共有を実現するための、量子化バージョンのGemmaモデルです。
大規模言語モデル
G
DevQuasar
122
0
Spacethinker Qwen2.5VL 3B GGUF
Apache-2.0
SpaceThinker-Qwen2.5VL-3Bは3Bパラメータのマルチモーダル視覚言語モデルで、空間推論と視覚的質問応答タスクに特化しています。
テキスト生成画像 英語
S
mradermacher
313
1
Llama 4 Maverick 17B 128E Instruct 6bit
その他
Meta Llama 4モデルを基に変換された6ビット量子化バージョンで、多言語命令対話をサポートします。
大規模言語モデル
Transformers 複数言語対応

L
mlx-community
350
0
Coreml Sam2.1 Tiny
Apache-2.0
SAM 2.1 TinyはFacebook AI Research (FAIR)が開発した軽量な画像・動画汎用セグメンテーションモデルで、プロンプトベースの制御可能な視覚セグメンテーションをサポートします。
画像セグメンテーション
C
apple
68
6
Moondream2 Llamafile
Apache-2.0
moondream2はエッジデバイスで効率的に動作するように設計された小型視覚言語モデルで、llamafile形式による簡単な展開が可能です。
画像生成テキスト
M
cjpais
310
30
Mixtral AI CyberCoder 7b
Apache-2.0
これはコード生成とアプリケーション開発に特化したマージモデルで、複数の高品質モデルを融合して作成されました
大規模言語モデル
Transformers その他

M
LeroyDyer
46
4
Qwen 7B Chat GPTQ
アリクラウドが開発した70億パラメータ規模の大規模言語モデル。Transformerアーキテクチャに基づき、中英二か国語とコード処理をサポートし、マルチターン対話能力を備える。
大規模言語モデル
Transformers 複数言語対応

Q
openerotica
26
5
Noggles 5400fp16
Openrail
これは安定拡散技術に基づくテキスト生成画像モデルで、Dreambooth手法でトレーニングされています。
画像生成
N
alx-ai
20
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98