Openbuddy OpenBuddy R1 0528 Distill Qwen3 32B Preview0 QAT GGUF
Apache-2.0
これはOpenBuddy-R1-0528-Distill-Qwen3-32B-Preview0-QATの量子化バージョンで、量子化技術を利用して、さまざまなハードウェア条件下でより効率的にモデルを実行できます。
大規模言語モデル 複数言語対応
O
bartowski
720
1
Fastwebmiia 7B
その他
FastwebMIIAはFastwebによって開発された70億パラメータのイタリア人工知能モデルで、イタリア語と英語用に設計され、長文書処理をサポートしています。
大規模言語モデル
Transformers

F
Fastweb
124
2
Qwen3 4B Llamafile
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、128kコンテキストウィンドウと100以上の言語をサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル
Q
Mozilla
995
2
Qwen3 1.7B Q8 0 GGUF
Apache-2.0
Qwen3-1.7B-Q8_0-GGUFはQwen/Qwen3-1.7Bを変換したGGUF形式モデルで、テキスト生成タスクをサポートし、多言語対応と効率的な推論能力を備えています。
大規模言語モデル
Q
Triangle104
277
1
HMS Slerp 12B V2
これはSLERP手法で融合された12Bパラメータ規模の多言語大規模言語モデルで、英語と日本語の処理をサポートしています。
大規模言語モデル
Transformers 複数言語対応

H
yamatazen
16
2
Jungzoona T3Q Qwen2.5 14b V1.0 E3 GGUF
Apache-2.0
このリポジトリにはJungZoona/T3Q-qwen2.5-14b-v1.0-e3のGGUFフォーマットモデルファイルが含まれており、TensorBlockが提供するマシンで量子化され、llama.cppと互換性があります。
大規模言語モデル
Transformers 複数言語対応

J
tensorblock
557
1
Minicpm S 1B Sft
Apache-2.0
MiniCPM-S-1B-sftは、活性化スパース化技術で最適化された10億パラメータ規模の言語モデルで、ProSparseメソッドにより高スパース推論加速を実現しつつ、元のモデルと同等の性能を維持しています。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
169
10
Qwen2.5 1.5B Instruct GGUF
Apache-2.0
Qwen2.5はQwen大規模言語モデルの最新シリーズで、15億パラメータ規模の命令調整モデルであり、多言語と長文生成をサポートします。
大規模言語モデル 英語
Q
Mungert
556
4
Kyro N1.1 7B Pytorch
その他
Kyro-n1.1はKyro-n1の強化バージョンで、Qwen2.5-7B-Instructを基に構築され、推論能力、理解力、応答精度が最適化されています。
大規模言語モデル
Transformers 複数言語対応

K
open-neo
41
2
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1シリーズは多言語大規模言語モデル(LLMs)のコレクションで、8B、70B、405Bサイズの事前学習済みおよび指示調整済み生成モデルを含みます。8Bバージョンは多言語対話ユースケース向けに最適化されており、一般的なベンチマークテストで優れた性能を発揮します。
大規模言語モデル 複数言語対応
L
unsloth
4,071
6
Elastic Qwen2.5 7B Instruct
Apache-2.0
エラスティックモデルはTheStage AI ANNAによって生成されたモデルシリーズで、スライドコントロールバーを使用してモデルの規模、遅延、品質を自由に調整でき、セルフホスティングシナリオにおいて最速で最も柔軟なソリューションを提供します。
大規模言語モデル 複数言語対応
E
TheStageAI
30
2
HMS Slerp 12B
HMS-Slerp-12BはSLERP(球面線形補間)法でマージされた多言語チャットモデルで、英語と日本語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

H
yamatazen
41
2
Elvenmaid 12B Stock
ElvenMaid-12Bシリーズモデルを統合したChatML形式の言語モデルで、英語と日本語をサポート
大規模言語モデル
Transformers 複数言語対応

E
yamatazen
35
2
Phi 4 Mini Instruct Float8dq
MIT
Phi-4-mini-instructモデルはtorchaoによるfloat8動的活性化と重みの量子化を経ており、H100上で36%のVRAM削減と15-20%の速度向上を実現し、精度にはほとんど影響を与えません。
大規模言語モデル
Transformers その他

P
pytorch
1,006
1
Elvenmaid 12B
ElvenMaid-12B は ChatML フォーマットに基づく12Bパラメータの言語モデルで、mergekitツールを使用して複数の事前学習済みモデルを統合し、英語と日本語のインタラクションをサポートします。
大規模言語モデル
Transformers 複数言語対応

E
yamatazen
38
2
Himeyuri Magnum 12B
Himeyuri-Magnum-12B は ChatML フォーマットに基づく多言語事前学習言語モデルで、mergekit ツールを使用して複数の12Bパラメータ規模のモデルを統合したものです。
大規模言語モデル
Transformers 複数言語対応

H
yamatazen
22
2
Fibonacci 2 14B
MIT
Phi 4アーキテクチャに基づく大規模言語モデルで、140億のパラメータを持ち、自然言語処理とテキスト対話タスクに最適化されています。
大規模言語モデル 複数言語対応
F
fibonacciai
97
13
Trillion 7B Preview AWQ
Apache-2.0
Trillion-7Bプレビュー版は多言語大規模言語モデルで、英語、韓国語、日本語、中国語をサポートし、計算効率と性能において同規模の7Bモデルを上回ります。
大規模言語モデル 複数言語対応
T
trillionlabs
22
4
Trillion 7B Preview
Apache-2.0
Trillion-7Bプレビュー版は多言語対応の大規模言語モデルで、英語、韓国語、日本語、中国語をサポートし、低い計算量を維持しながら、より高い計算量を必要とするモデルと競合する性能を実現しています。
大規模言語モデル
Transformers 複数言語対応

T
trillionlabs
6,864
82
Etherealaurora 12B V2
ChatMLアーキテクチャに基づく対話モデルで、mergekitツールを使用して事前訓練された言語モデルを統合して生成
大規模言語モデル
Transformers 複数言語対応

E
yamatazen
859
16
Kyro N1.1 7B
その他
Kyro-n1.1はKyro-n1の強化バージョンで、Qwen2.5-7B-Instructを基に構築され、推論能力、理解力、応答精度が最適化されています。
大規模言語モデル
Transformers 複数言語対応

K
open-neo
470
4
Bloomvn 8B Chat Reasoning
MIT
ベトナム語推論に最適化された多言語ファインチューニングモデルで、段階的な推論能力を備え、構造化XMLフォーマットを採用
大規模言語モデル
Transformers 複数言語対応

B
BlossomsAI
68
2
Aurora SCE 12B
SCE手法で統合された多言語ChatMLモデル、英語と日本語の対話をサポート
大規模言語モデル
Transformers 複数言語対応

A
yamatazen
51
6
Fibonacci 1 EN 8b Chat.p1 5
MIT
Fibonacci-1-EN-8b-Chat.P1_5はLLaMAアーキテクチャに基づく大規模言語モデルで、80.3億のパラメータを持ち、自然言語処理タスクとテキスト対話に最適化されています。
大規模言語モデル 複数言語対応
F
fibonacciai
132
11
Ozone Ai 0x Lite GGUF
Apache-2.0
ozone-ai/0x-liteモデルに基づく量子化バージョンで、中英テキスト生成タスクをサポートし、llama.cppを使用したimatrix量子化を採用し、さまざまなハードウェア要件に対応する複数の量子化オプションを提供します。
大規模言語モデル 複数言語対応
O
bartowski
220
2
Llama 3.3 70B Instruct Quantized.w8a8
これはLlama-3.3-70B-Instructの量子化バージョンのモデルで、多言語のテキスト生成をサポートし、ビジネスや研究のシーンで使用でき、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Safetensors 複数言語対応
L
RedHatAI
19.02k
7
Razorback 12B V0.2
その他
Razorback 12B v0.2はPixtral 12BとUnslopNemo v3の利点を組み合わせたマルチモーダルモデルで、視覚理解と言語処理能力を備えています。
画像生成テキスト
Transformers 複数言語対応

R
nintwentydo
17
3
Openbuddy Deepseek 10b V17.1 4k GGUF
その他
OpenBuddy/openbuddy-deepseek-10b-v17.1-4kのGGUF形式モデルファイルで、多言語をサポートし、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
O
tensorblock
81
1
Meta Llama 3.3 70B Instruct AWQ INT4
Llama 3.3 70B Instruct AWQ INT4 は、Meta Llama 3.3 70B Instructモデルの4ビット量子化バージョンで、多言語対話ユースケースに適しており、テキスト生成タスクを最適化しています。
大規模言語モデル
Transformers 複数言語対応

M
ibnzterrell
6,410
22
Llama 3.2 3B Instruct QLORA INT4 EO8
Llama 3.2はMetaが開発した多言語大規模言語モデルで、1Bと3Bの2種類のパラメータ規模を提供し、様々な言語タスクをサポートし、既存のオープンソースおよびクローズドソースモデルよりも性能が優れています。
大規模言語モデル
PyTorch 複数言語対応
L
meta-llama
289
68
Glm 4 9b Chat Hf
その他
GLM-4-9Bは智譜AIが発表したGLM-4シリーズの最新世代事前学習モデルのオープンソース版で、優れた意味理解、数学、推論、コード、知識能力を備えています。
大規模言語モデル
Transformers 複数言語対応

G
THUDM
7,919
13
Qwen2.5 32B AGI
Apache-2.0
初のQwen2.5 32B微調整バージョンで、過度の審査問題を修正し、多言語対話をサポートします。
大規模言語モデル
Transformers 複数言語対応

Q
AiCloser
163
87
Vapor V2 7B
Apache-2.0
Qwen/Qwen2.5-7Bモデルを多言語データセットで微調整した大規模言語モデルで、13言語の処理をサポート
大規模言語モデル
Transformers

V
FourOhFour
60
4
Llama VARCO 8B Instruct
Llama-VARCO-8B-InstructはLlamaをベースに構築された生成モデルで、追加の学習により、韓国語処理において優れた性能を発揮し、同時に英語能力も維持しています。
大規模言語モデル
Transformers 複数言語対応

L
NCSOFT
2,981
74
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Internlm2 5 20b Chat Abliterated
Apache-2.0
これはinternlm2_5-20b-chatモデルを基にCPUを使用した新しいアブレーション処理方法を適用したバージョンです。
大規模言語モデル
Transformers 複数言語対応

I
byroneverson
16
4
Magnum V2 72b
その他
このモデルは、Qwen - 2 72B Instructをベースに微調整された大規模言語モデルで、クロード3シリーズモデルの散文の質を再現することを目的としており、シリーズモデルの7番目のバージョンです。
大規模言語モデル
Safetensors 複数言語対応
M
anthracite-org
302
39
Meta Llama 3.1 8B Instruct GPTQ INT4
これはMeta-Llama-3.1-8B-InstructモデルのINT4量子化バージョンで、GPTQアルゴリズムを使用して量子化されており、多言語対話シナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

M
hugging-quants
128.18k
25
Meta Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B 命令調整モデルのGGUF量子化バージョン、多言語対話シナリオに適しています
大規模言語モデル 複数言語対応
M
MaziyarPanahi
499.87k
19
Meta Llama 3.1 70B Instruct AWQ INT4
Llama 3.1 70B InstructのINT4量子化バージョン、AutoAWQ技術に基づいて最適化され、多言語対話シナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

M
hugging-quants
80.59k
100
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98