Qwen2.5 VL 7B Meteorology GGUF
その他
Qwen2.5-VL-7B-Meteorologyの量化バージョンで、気象関連の画像テキスト処理タスクに適しています。
画像生成テキスト
Transformers 英語

Q
mradermacher
159
1
Midm 2.0 Mini Instruct Gguf
MIT
Mi:dm 2.0は韓国を中心としたAIモデルで、KTが独自技術を用いて開発しました。このモデルは韓国社会独自の価値観、認知フレームワーク、常識推論を深く内包しており、韓国語のコンテンツを処理および生成するだけでなく、韓国社会の文化規範と価値観に対する深い理解を体現しています。
大規模言語モデル
Transformers 複数言語対応

M
mykor
470
3
Ast Finetuned Audioset 10 10 0.4593 ONNX
これはAST(Audio Spectrogram Transformer)モデルのONNXバージョンで、音声分類タスク用に設計され、AudioSetデータセットで微調整されています。
音声分類
Transformers

A
onnx-community
684
1
Microsoft Phi 4 Mini Reasoning GGUF
MIT
これはマイクロソフトPhi-4-mini-reasoningモデルの量子化バージョンで、llamacppツールを使用して量子化処理を行い、異なるハードウェア環境でのモデルの実行効率とパフォーマンスを向上させることを目的としています。
大規模言語モデル 複数言語対応
M
bartowski
1,667
7
Gemma 3 27b It Qat Unsloth Bnb 4bit
Gemma 3はGoogleが開発した軽量級で最先端のマルチモーダルオープンソースモデルで、テキストと画像の入力を処理し、テキスト出力を生成することができます。
画像生成テキスト
Transformers

G
unsloth
2,591
1
Yue S1 7B Anneal En Cot GGUF
YuE-s1-7B-anneal-en-cotは7Bパラメータ規模の大規模言語モデルで、GGUF形式の量子化バージョンを提供し、ローカル推論に適しています。
大規模言語モデル 英語
Y
tensorblock
272
29
Llama 3.2 1B Instruct Q4 K M GGUF
これはMeta Llama-3.2-1B-Instructモデルを変換したGGUF形式の定量版で、ローカル推論シナリオに適しています。
大規模言語モデル 複数言語対応
L
hugging-quants
24.70k
16
Llama 3.2 3B Instruct Q4 K M GGUF
これはMetaのLlama-3.2-3B-Instructモデルから変換されたGGUF形式の量子化バージョンで、効率的な推論に適しています。
大規模言語モデル 複数言語対応
L
hugging-quants
2,553
20
Mistral NeMo Minitron 8B Base IMat GGUF
その他
これはnvidia/Mistral-NeMo-Minitron-8B-Baseモデルを基にllama.cpp imatrix量子化を行った成果物で、モデルの使用とデプロイにより多くの選択肢を提供します。
大規模言語モデル
M
legraphista
1,115
1
Tiny Dummy Qwen2
MIT
このモデルはMITライセンスで公開されており、具体的な情報は現時点では不明です。
大規模言語モデル
Transformers

T
fxmarty
90.78k
1
Chkpt E10S441L10 20 139 3060
MIT
このモデルはMITライセンスで公開されており、具体的な情報は現在不明です。
大規模言語モデル
Transformers

C
sarthakmp
16
0
2 Labels
これはAutoTrainでトレーニングされた視覚画像分類モデルで、二分類タスク専用に設計されており、テストデータで優れたパフォーマンスを発揮します。
画像分類
Transformers

2
Ailyth
16
0
Latex Ocr
MIT
このモデルはMITライセンスで公開されており、詳細情報は追加で提供される必要があります。
大規模言語モデル
Transformers

L
yhshin
170
11
Pegasus Xsum Booksum
MIT
このモデルはMITライセンスで公開されており、具体的な情報は提供されていません。
大規模言語モデル
Transformers

P
cnicu
47
1
Dialogpt Medium Asunayuuki
DialoGPTアーキテクチャに基づく対話生成モデルで、アニメキャラクターの結城明日奈(Asuna)をスタイルの特徴としています。
対話システム
Transformers

D
Denny29
91
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98