Microsoft.naturelm 8x7B Inst GGUF
NatureLM-8x7B-Instの量子化バージョンで、知識を誰もが利用できるようにすることを目的としています。
大規模言語モデル
M
DevQuasar
244
1
Medra4b GGUF
Apache-2.0
Medra4bは医療分野に特化した量子化言語モデルで、英語とルーマニア語をサポートし、テキスト生成と要約タスクに焦点を当てています。
大規模言語モデル
Transformers 複数言語対応

M
mradermacher
152
0
Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
T5アーキテクチャに基づく静的量子化モデル、学術論文の要約生成タスクに特化
テキスト生成 英語
A
mradermacher
131
0
Medra I1 GGUF
Apache-2.0
Medraは医療分野のデータセットで微調整された量子化言語モデルで、医療Q&Aや要約生成タスクに特化しています。
大規模言語モデル 複数言語対応
M
mradermacher
369
0
Granite 3.3 8b Instruct Q8 0 GGUF
Apache-2.0
このモデルはIBM Granite-3.3-8B命令微調整モデルから変換されたGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル
G
NikolayKozloff
36
2
3b Fr Ft Research Release Q4 K M GGUF
Apache-2.0
これはcanopylabs/3b-fr-ft-research_releaseモデルを変換したGGUF形式のフランス語言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル フランス語
3
freddyaboulton
173
1
Gemma 3 27b It Qat Autoawq
Gemma 3はGoogleが提供する軽量級の最先端オープンモデルシリーズで、Geminiと同じ技術に基づいて構築されており、マルチモーダル入力(テキスト/画像)とテキスト出力をサポートします。27Bバージョンは量子化認識トレーニングによりメモリ要件を大幅に削減しています。
画像生成テキスト
Safetensors
G
gaunernst
789
4
Gemma 3 12b It Qat Autoawq
Gemma 3はGoogleがGemini技術に基づいて構築した軽量オープンモデルシリーズで、マルチモーダル入力とテキスト出力をサポートします。
画像生成テキスト
Safetensors
G
gaunernst
498
3
Gemma 3 12b It Q5 K M GGUF
これはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
大規模言語モデル
G
NikolayKozloff
46
1
Dermatech Qwen2 VL 2B GGUF
これはQwen2アーキテクチャに基づくマルチモーダルモデルで、テキスト生成、画像からテキストへの変換、視覚的質問応答タスクをサポートし、さまざまなニーズに対応するために複数の量子化バージョンを提供します。
画像生成テキスト 英語
D
mradermacher
42
0
Qwen2 VL 7B Instruct GGUF
Apache-2.0
Qwen2-VL-7B-Instructは7Bパラメータ規模のマルチモーダルモデルで、画像とテキストのインタラクティブタスクをサポートします。
画像生成テキスト 英語
Q
gaianet
102
2
Qwen2 VL 7B Instruct GGUF
Apache-2.0
Qwen2-VL-7B-Instructは、画像とテキストの統合理解と生成タスクをサポートするマルチモーダル視覚言語モデルです。
画像生成テキスト 英語
Q
second-state
195
4
Mistral 7B OpenOrca Q4 K M GGUF
Apache-2.0
このモデルはOpen-Orca/Mistral-7B-OpenOrcaから変換されたGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
M
munish0838
81
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98