# 効率的な推論最適化

AM Thinking V1 GGUF
Apache-2.0
AM-Thinking-v1 は GGUF フォーマットに基づくテキスト生成モデルで、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers
A
Mungert
1,234
1
Qwen3 235B A22B Exl3
Apache-2.0
Qwen3-235B-A22B の Exllamav3 量子化バージョンで、モデルサイズとパフォーマンスを最適化するための複数の量子化オプションを提供します。
大規模言語モデル
Q
MikeRoz
37
4
Llama 3.1 Nemotron Nano 4B V1.1
その他
Llama-3.1-Nemotron-Nano-4B-v1.1はLlama 3.1を圧縮最適化した大規模言語モデルで、推論と対話タスクに特化し、128Kのコンテキスト長をサポート、単一RTXグラフィックカードに対応しています。
大規模言語モデル Transformers 英語
L
nvidia
5,714
61
Falcon H1 34B Instruct
その他
Falcon-H1はTIIが開発した効率的なハイブリッドアーキテクチャ言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
大規模言語モデル Transformers
F
tiiuae
2,454
28
Falcon H1 34B Base
その他
Falcon-H1はアラブ首長国連邦の技術革新研究所が開発したハイブリッドアーキテクチャの言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、多言語処理をサポートしています。
大規模言語モデル Transformers 複数言語対応
F
tiiuae
175
7
Helium 1 2b Q8 0 GGUF
これはkyutai/helium-1-2bを変換したGGUF形式のモデルで、複数のヨーロッパ言語をサポートしています。
大規模言語モデル 複数言語対応
H
NikolayKozloff
53
3
Qwen3 0.6B Base
Apache-2.0
Qwen3-0.6B-Baseは通義千問シリーズの最新世代の大規模言語モデルで、一連の密集モデルと混合専門家(MoE)モデルを提供します。
大規模言語モデル Transformers
Q
unsloth
10.84k
2
Bitnet B1.58 2B 4T GGUF
MIT
マイクロソフトが開発した1.58ビット量子化大規模言語モデル、効率的な推論のために設計され、IQ2_BNとIQ2_BN_R4の2つの量子化バージョンを提供
大規模言語モデル
B
tdh111
1,058
4
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本モデルはTHUDM/GLM-Z1-9B-0414のGGUF形式変換バージョンで、中英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
Aldaris
205
2
Open Thoughts OpenThinker2 7B GGUF
Apache-2.0
OpenThinker2-7Bの量子化バージョン、llama.cppを使用して量子化され、テキスト生成タスクに適しています。
大規模言語モデル
O
bartowski
1,023
5
Nemotron H 8B Base 8K
その他
NVIDIA Nemotron-H-8B-Base-8KはNVIDIAが開発した大規模言語モデル(LLM)で、与えられたテキスト断片の補完生成を目的としています。このモデルはハイブリッドアーキテクチャを採用しており、主にMamba-2とMLP層で構成され、わずか4つのアテンション層を組み合わせています。モデルは8Kのコンテキスト長をサポートし、英語、ドイツ語、スペイン語、フランス語、イタリア語、韓国語、ポルトガル語、ロシア語、日本語、中国語など多様な言語をカバーしています。
大規模言語モデル Transformers 複数言語対応
N
nvidia
5,437
38
Llama 3.1 Nemotron Nano 8B V1
その他
Meta Llama-3.1-8B-Instructを基に最適化された推論と対話モデル、128Kのコンテキスト長をサポート、効率と性能のバランス
大規模言語モデル Transformers 英語
L
nvidia
60.52k
145
Gemma 3 12b It Q5 K S GGUF
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカル推論に適しており、テキスト生成タスクをサポートします。
大規模言語モデル
G
NikolayKozloff
16
1
Gemma 3 27b It Q4 K M GGUF
このモデルはGoogleのGemma 3 27B ITモデルを変換したGGUF形式バージョンで、ローカル推論に適しています。
大規模言語モデル
G
paultimothymooney
299
2
Bge Reranker V2 M3 Q8 0 GGUF
Apache-2.0
これはBAAI/bge-reranker-v2-m3モデルを変換したGGUF形式のテキストソートモデルで、多言語テキスト埋め込み推論をサポートします。
テキスト埋め込み その他
B
pqnet
54
0
Formatclassifier
FormatClassifierモデルは、ウェブページのURLとテキスト内容に基づいて、ネットワークコンテンツを24のカテゴリに分類できます。
テキスト分類 Transformers その他
F
WebOrganizer
2,429
5
Topicclassifier
gte-base-en-v1.5をファインチューニングしたテーマ分類モデルで、ウェブコンテンツを24のカテゴリに分類可能
テキスト分類 Transformers その他
T
WebOrganizer
2,288
9
Plamo 2 8b
その他
PLaMo 2 8BはPreferred Elements社が開発した80億パラメータのハイブリッドアーキテクチャ言語モデルで、英語と日本語のテキスト生成をサポートしています。
大規模言語モデル Transformers 複数言語対応
P
pfnet
401
19
Plamo 2 1b
Apache-2.0
PLaMo 2 1BはPreferred Elements社が開発した10億パラメータのモデルで、英語と日本語のデータセットで事前学習され、Mambaとスライディングウィンドウアテンション機構を組み合わせたハイブリッドアーキテクチャを採用しています。
大規模言語モデル Transformers 複数言語対応
P
pfnet
1,051
31
Hunyuan 7B Instruct 0124
その他
混元-7Bは騰訊が公開したオープンソースの大規模言語モデルで、256Kの長テキスト処理能力とグループ化クエリ注意力メカニズム(GQA)を持ち、中国語7Bの稠密モデルで優れた性能を発揮します。
大規模言語モデル Transformers 英語
H
tencent
590
50
Deepseek R1 Distill Llama 70B GGUF
DeepSeek-R1-Distill-Llama-70Bは、DeepSeekチームがLlamaアーキテクチャに基づいて開発した70Bパラメータの大規模言語モデルで、蒸留技術により最適化され、効率的な推論と微調整をサポートしています。
大規模言語モデル 英語
D
unsloth
11.51k
79
Modernbert Large Squad2 V0.1
Apache-2.0
ModernBERT-largeをSQuAD 2.0データセットでファインチューニングした質問応答モデルで、長文コンテキスト処理をサポート
質問応答システム Transformers
M
Praise2112
19
2
Ichigo Llama3.1 S Instruct V0.4 GGUF
Apache-2.0
Menlo/Ichigo-llama3.1-s-instruct-v0.4を基にした静的量子化モデルで、様々な量子化バージョンを提供し、異なるハードウェア要件に対応します。
大規模言語モデル 英語
I
mradermacher
369
1
Deepseek V2 Lite
DeepSeek-V2-Liteは、経済効率に優れたエキスパート混合(MoE)言語モデルで、総パラメータ数16B、活性化パラメータ数2.4B、32kの文脈長をサポートします。
大規模言語モデル Transformers
D
ZZichen
20
1
Meta Llama 3 8B Instruct Function Calling Json Mode
このモデルはmeta-llama/Meta-Llama-3-8B-Instructを基にファインチューニングされ、関数呼び出しとJSONモードに特化しています。
大規模言語モデル Transformers 英語
M
hiieu
188
75
Jamba V0.1
Apache-2.0
Jambaは最先端のハイブリッドSSM-Transformer大規模言語モデルで、MambaアーキテクチャとTransformerの利点を組み合わせ、256Kのコンテキスト長をサポートし、スループットと性能において同規模のモデルを凌駕します。
大規模言語モデル Transformers
J
ai21labs
6,247
1,181
Yarn Mistral 7B 128k AWQ
Apache-2.0
Yarn Mistral 7B 128Kは、長文コンテキストに最適化された先進的な言語モデルで、YaRN拡張手法を用いて長文コンテキストデータで追加事前学習を行い、128kトークンのコンテキストウィンドウをサポートします。
大規模言語モデル Transformers 英語
Y
TheBloke
483
72
Decilm 6b Instruct
その他
DeciLM 6B-指示モデルは、短い形式の指示追従に特化した英語言語モデルで、DeciLM 6BをLoRAファインチューニング技術でトレーニングしたものです
大規模言語モデル Transformers 英語
D
Deci
105
134
Whisper Telugu Medium
Apache-2.0
OpenAI Whisper-mediumをファインチューニングしたテルグ語音声認識モデルで、複数の公開テルグ語ASRデータセットでトレーニング済み
音声認識 その他
W
vasista22
228
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase