Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instructは38億パラメータの軽量で最先端のオープンソースモデルで、Phi-3データセットを使用して訓練され、高品質と推論集中特性に重点を置いています。
大規模言語モデル
P
brittlewis12
170
1
Tngtech.deepseek R1T Chimera GGUF
DeepSeek-R1T-Chimeraはテキスト生成モデルで、tngtechの技術を基に開発され、効率的な自然言語処理タスクに特化しています。
大規模言語モデル
T
DevQuasar
1,407
2
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
andrewzhのAbsolute_Zero_Reasoner-Coder-14bモデルを基に、llama.cppを使用してimatrix量子化を施したバージョンで、推論とコード生成タスクに適しています。
大規模言語モデル
A
bartowski
1,995
5
Kevin 32B GGUF
Kevin 32BはCognition AIによって開発された大規模言語モデルで、超長コンテキスト(40960トークン)をサポートし、CUDAカーネル生成と強化学習タスクに特化しています。
大規模言語モデル
K
lmstudio-community
297
4
Apriel Nemotron 15b Thinker
MIT
ServiceNowが提供する150億パラメータの効率的な推論モデルで、メモリ使用量は同クラスの先進モデルの半分のみ
大規模言語モデル
Transformers

A
ServiceNow-AI
1,252
86
Model
MIT
エンコーダー-デコーダーアーキテクチャに基づく多言語トランスフォーマーモデルで、テキスト要約、翻訳、質問応答システムタスクをサポートします。
大規模言語モデル
Transformers その他

M
miscovery
277
0
Qwen3 1.7B ONNX
Qwen3-1.7Bは、Alibaba Cloudが提供する1.7Bパラメータ規模のオープンソース大規模言語モデルで、Transformerアーキテクチャに基づき、様々な自然言語処理タスクをサポートします。
大規模言語モデル
Transformers

Q
onnx-community
189
1
Lughaat 1.0 8B Instruct
Apache-2.0
Lughaat-1.0-8B-InstructはLlama 3.1 8Bアーキテクチャに基づいて構築されたウルドゥー語大規模モデルで、最大のウルドゥー語データセットでトレーニングされ、ウルドゥー語タスクで優れたパフォーマンスを発揮します。
大規模言語モデル
Transformers 複数言語対応

L
muhammadnoman76
42
2
Trendyol LLM 7B Chat V4.1.0
Apache-2.0
Trendyol LLM v4.1.0 は、EC分野とトルコ語理解に特化した生成モデルで、Trendyol LLM base v4.0(130億トークンで追加事前学習されたQwen2.5 7Bバージョン)に基づいています。
大規模言語モデル その他
T
Trendyol
854
25
Instella 3B Stage1
その他
InstellaはAMDが開発した30億パラメータのオープンソース言語モデルシリーズで、AMD Instinct™ MI300X GPUでトレーニングされ、同規模の完全オープンソースモデルを性能で凌駕しています。
大規模言語モデル
Transformers

I
amd
397
12
Arcee Blitz
Apache-2.0
Mistralアーキテクチャに基づく240億パラメータモデルで、DeepSeekモデルから蒸留され、高速かつ効率的な処理を実現することを目的としています。
大規模言語モデル
Transformers

A
arcee-ai
4,923
74
Deepseek R1 Distill Qwen 32B Japanese
MIT
CyberAgentがリリースした日本語大規模言語モデル、Qwen-32Bを蒸留して最適化
大規模言語モデル 日本語
D
cyberagent
1,190
250
Qwen 0.5B DPO 5epoch
MIT
TransformersはHugging Faceが提供するオープンソースライブラリで、自然言語処理(NLP)タスクをサポートし、さまざまな事前学習モデルに対応しています。
大規模言語モデル
Transformers

Q
JayHyeon
25
1
Llama3.1 Typhoon2 8b Instruct
Llama3.1-Typhoon2-8Bは、Transformerアーキテクチャに基づくタイ語の大規模言語モデル(指令型)で、複数の言語タスクを処理でき、ユーザーに効率的で正確な言語インタラクションサービスを提供します。
大規模言語モデル
Safetensors
L
scb10x
2,831
7
Qwen2.5 Aloe Beta 7B
Apache-2.0
Qwen2.5-Aloe-Beta-7Bはオープンソースの医療用大規模言語モデルで、複数の医療タスクにおいて最先端の性能を達成しています。Qwen2.5-7Bアーキテクチャを基に微調整され、18億トークンの多様な医療タスクデータでトレーニングされています。
大規模言語モデル
Transformers 英語

Q
HPAI-BSC
631
5
Llama 3.1 Tango 70b Bnb 4b
Tango-70B-Instructは、スペイン語地域の言語性能を向上させるために設計された大型言語モデルです。
大規模言語モデル
Transformers 複数言語対応

L
sandbox-ai
1,768
1
Hymba 1.5B Instruct
その他
Hymba-1.5B-Baseを基に命令微調整された15億パラメーターモデルで、数学的推論、関数呼び出し、ロールプレイなどの複雑なタスク処理能力を備える
大規模言語モデル
Transformers

H
nvidia
3,547
227
Lumina Mgpt 7B 1024
Lumina-mGPTはマルチモーダル自己回帰モデルのファミリーで、テキスト記述に基づいて柔軟でリアルな画像を生成するのに優れており、さまざまな視覚と言語タスクを実行できます。
テキスト生成画像
L
Alpha-VLLM
27
9
Lumina Mgpt 7B 768 Omni
Lumina-mGPT はマルチモーダル自己回帰モデルのシリーズで、テキスト記述に基づいて柔軟でリアルな画像を生成するのに優れています。
テキスト生成画像
Transformers

L
Alpha-VLLM
264
7
Yism 34B 0rn
Apache-2.0
YiSM-34B-0rnはYi-1.5-34BとYi-1.5-34B-Chatを融合した大規模言語モデルで、命令追従能力と基本モデルの特性のバランスを目指しています。
大規模言語モデル
Transformers

Y
altomek
22
2
Persianllama 13B
ペルシャ語初の画期的な大規模言語モデルで、130億のパラメータを持ち、ペルシャ語ウィキペディアのコーパスで訓練され、様々な自然言語処理タスクのために設計されています。
大規模言語モデル
Transformers その他

P
ViraIntelligentDataMining
3,291
11
Neuralllama 3 8b ORPO V0.3
Apache-2.0
meta-llama/Meta-Llama-3.1-8B-Instructをベースに最適化された言語モデルで、スペイン語テキスト生成に長けています。
大規模言語モデル
Transformers

N
Kukedlc
11.62k
3
Easy Ko Llama3 8b Instruct V1
Easy-Systems社初のLlama3-8B-Instructを基に韓国語で微調整したLLMモデルで、韓国語と英語のテキスト生成タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

E
Easy-Systems
1,804
4
Llama Medx V3
Apache-2.0
これはHugging Face Transformersライブラリに基づく大規模言語モデルで、テキスト生成、言語翻訳、質問応答などの自然言語処理タスクに適しています。
大規模言語モデル
Transformers

L
skumar9
2,598
2
Bahasa 4b Chat
その他
qwen-4bモデルをベースに、100億の高品質インドネシア語テキストで継続訓練されたインドネシア語大規模言語モデル
大規模言語モデル
Transformers その他

B
Bahasalab
120
5
Prollama Stage 1
Apache-2.0
ProLLaMAはLlama-2-7bアーキテクチャに基づくタンパク質大規模言語モデルで、マルチタスクタンパク質言語処理に特化しています。
タンパク質モデル
Transformers

P
GreatCaptainNemo
650
2
Biomistral MedMNX
BioMistral - MedMNXは、複数の事前学習モデルを融合することで作成された生物医学分野専用の言語モデルで、DAREとTIESの融合方法を用いて性能を最適化しています。
大規模言語モデル
Transformers

B
BioMistral
3,509
4
Wizardlaker 7B
Apache-2.0
ウィザードレイク7Bは次世代WizardLM 2 7BモデルとカスタムDolphinLakeモデルを融合したモデルで、優れた性能を発揮します。
大規模言語モデル
Transformers

W
Noodlz
22
2
Spivavtor Large
Spivavtor-Largeは命令ファインチューニングに基づくウクライナ語テキスト編集モデルで、テキストの書き換え、簡略化、文法修正、一貫性の最適化などのタスクに特化しています。
大規模言語モデル
Transformers その他

S
grammarly
169
9
E.star.7.b
Apache-2.0
Mistralアーキテクチャに基づく7Bパラメータの大規模言語モデル。UnslothとTRLライブラリを使用した効率的なトレーニングにより、複数のベンチマークテストで優れたパフォーマンスを発揮。
大規模言語モデル
Transformers 英語

E
liminerity
86
2
T LLaMA
T-LLaMAはLLaMA2-7Bモデルをベースに訓練されたチベット語大規模言語モデルで、22億のチベット文字を含むコーパスを構築し、テキスト分類、生成、要約タスクで良好な性能を示しています。
大規模言語モデル
Transformers その他

T
Pagewood
19
2
Gemma 7B Instruct Function Calling
CC
GemmaはGoogleが開発した軽量で先進的なオープンソース大規模言語モデルシリーズで、Gemini技術体系に基づいており、英文テキスト生成タスクをサポートします。
大規模言語モデル
Transformers

G
InterSync
17
6
Gemma 2b
GemmaはGoogleが提供する軽量オープンソース大規模言語モデルシリーズで、Geminiモデルを構築した技術を基盤とし、20億パラメータの基本バージョンを提供します。
大規模言語モデル
G
google
402.85k
994
Kafkalm 70B German V0.1 GGUF
KafkaLM 70B German V0.1はLlama2アーキテクチャを基盤とした大規模ドイツ語言語モデルで、Seedboxによって開発されました。このモデルはドイツ語に特化して最適化されており、様々なテキスト生成タスクに適しています。
大規模言語モデル ドイツ語
K
TheBloke
1,826
33
Phixtral 2x2 8
MIT
phixtral-2x2_8 は、2つの microsoft/phi-2 モデルを基に構築された初の混合エキスパートモデル(MoE)であり、個々のエキスパートモデルよりも優れたパフォーマンスを発揮します。
大規模言語モデル
Transformers 複数言語対応

P
mlabonne
178
148
Kaori 70b V1
kaori-70b-v1はLLaMA2アーキテクチャに基づく大規模言語モデルで、KaeriとJentiチームがOpen-Platypus、dolphin、OpenOrcaデータセットを使用してファインチューニングを行いました。
大規模言語モデル
Transformers

K
KaeriJenti
907
2
Athnete 13B GPTQ
AthneteはAlpacaフォーマットに基づく13Bパラメータの大規模言語モデルで、ロールプレイ、感情的なロールプレイ、一般的な用途に適しています。
大規模言語モデル
Transformers

A
TheBloke
24
4
Lamini T5 738M
LaMini-T5-738Mはt5-largeをLaMini-instructionデータセットで微調整した命令微調整モデルで、パラメータ数は738M、LaMini-LMシリーズモデルの1つです。
大規模言語モデル
Transformers 英語

L
MBZUAI
2,966
49
Lamini Flan T5 783M
LaMini-Flan-T5-783Mはgoogle/flan-t5-largeをLaMini-instructionデータセットでファインチューニングした命令追従モデルで、パラメータ数は783M、LaMini-LMシリーズの一つです。
大規模言語モデル
Transformers 英語

L
MBZUAI
2,694
80
Lamini T5 61M
LaMini-T5-61MはT5-smallアーキテクチャをベースに、LaMini-instructionデータセットでファインチューニングされた命令追従モデルで、パラメータ規模は61Mです。
大規模言語モデル
Transformers 英語

L
MBZUAI
1,287
18
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98