Qwen3 4B Mishima Imatrix GGUF
Apache-2.0
Qwen3-4BベースのMishima Imatrix量子化バージョン、特定データセットで散文スタイル生成能力を強化
大規模言語モデル
Q
DavidAU
105
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus はマイクロソフトが開発した推論能力を強化した大規模言語モデルで、複雑な数学問題や多段階推論タスクに最適化されています。
大規模言語モデル 複数言語対応
P
lmstudio-community
5,205
4
Arcee Blitz
Apache-2.0
Mistralアーキテクチャに基づく240億パラメータモデルで、DeepSeekモデルから蒸留され、高速かつ効率的な処理を実現することを目的としています。
大規模言語モデル
Transformers

A
arcee-ai
4,923
74
Mistral Small 24B Instruct 2501 4.0bpw Exl2
Apache-2.0
Mistral Small 3 (2501) は240億パラメータを持つ大規模言語モデルで、70B以下の小型モデルカテゴリーで優れた性能を発揮し、多言語サポートと高度な推論能力を備えています。
大規模言語モデル
Transformers 複数言語対応

M
matatonic
15
1
Norwai Mistral 7B Instruct
Mistral-7Bを基にノルウェー語命令チューニングを行った大規模言語モデル。ノルウェー科学技術大学NowAI研究センターとパートナーが開発
大規模言語モデル
N
NorwAI
18.62k
10
Qwen2 7B Multilingual RP
Apache-2.0
Qwen2-7Bは多言語対応のロールプレイング大規模言語モデルで、英語、韓国語、日本語、中国語、スペイン語をサポートし、32kのコンテキスト長を有しています。
大規模言語モデル
Transformers 複数言語対応

Q
maywell
646
57
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル
Transformers 複数言語対応

I
Vikhrmodels
74
11
Dark Miqu 70B
その他
ダークスタイルのクリエイティブライティングに特化した700億パラメータの大規模言語モデル。32kトークンのコンテキスト長をサポート、miqu-1-70bをベースに開発。ダーク/残酷ファンタジー題材の創作に優れる
大規模言語モデル
Transformers

D
jukofyork
46
30
Mistral 7B Instruct V0.2
Apache-2.0
Mistral-7B-Instruct-v0.2はMistral-7B-v0.2を基に命令微調整された大規模言語モデルで、32kのコンテキストウィンドウをサポートし、スライディングウィンドウ注意機構を除去しています。
大規模言語モデル
Transformers

M
mistralai
1.1M
2,737
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98