Pythia 70m Wikipedia Paragraphs I1 GGUF
Apache-2.0
これはPythia - 70mモデルに基づく量子化バージョンで、ウィキペディアの段落データに特化して最適化されており、さまざまな量子化タイプを提供して異なるリソース要件に対応します。
大規模言語モデル
Transformers 英語

P
mradermacher
823
1
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bitは通義千問1.7Bモデルの4ビット量子化バージョンで、MLXフレームワーク形式に変換されており、Apple Siliconデバイスで効率的に実行できます。
大規模言語モデル
Q
mlx-community
11.85k
2
Qwen3 0.6B Base
Apache-2.0
Qwen3は通義千問シリーズ最新世代の6億パラメータ大規模言語モデルで、32kのコンテキスト長をサポートし、119言語をカバー
大規模言語モデル
Transformers

Q
Qwen
58.85k
44
Minicpm S 1B Sft
Apache-2.0
MiniCPM-S-1B-sftは、活性化スパース化技術で最適化された10億パラメータ規模の言語モデルで、ProSparseメソッドにより高スパース推論加速を実現しつつ、元のモデルと同等の性能を維持しています。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
169
10
Gpt2 774M Fineweb 150B
MIT
このモデルはkarpathyのllm.cプロジェクトに由来し、bfloat16性能研究のためにHuggingFace形式に変換され、1500億トークンを消費してトレーニングされました。
大規模言語モデル
Transformers

G
rhysjones
22
6
Txgemma 27b Predict
その他
TxGemmaはGemma 2を基に構築された一連の軽量で先進的なオープン言語モデルで、治療開発向けに微調整されています。2B、9B、27Bの3つの規模を提供し、治療法とターゲットに関連する情報の処理に優れています。
大規模言語モデル
Transformers 英語

T
google
1,255
24
Txgemma 9b Chat
その他
TxGemmaはGemma 2をベースに構築された軽量オープンソース言語モデルで、治療開発向けに微調整されており、2B、9B、27Bの3つのサイズが提供されています。
大規模言語モデル
Transformers 英語

T
google
4,111
31
Qwen Encoder 0.5B GGUF
Apache-2.0
これはknowledgator/Qwen-encoder-0.5Bモデルに基づく静的量子化バージョンで、主にテキストエンコーディングタスクに使用されます。
大規模言語モデル 英語
Q
mradermacher
175
1
Diraya 3B Instruct Ar
Apache-2.0
Qwen2.5-3Bをファインチューニングしたアラビア語推論専用言語モデルで、アラビア語言語モデルの論理推論と数学問題解決能力の向上に焦点を当てています。
大規模言語モデル
Transformers アラビア語

D
Omartificial-Intelligence-Space
86
2
Qvikhr 2.5 1.5B Instruct SMPO MLX 4bit
Apache-2.0
これはQVikhr-2.5-1.5B-Instruct-SMPOモデルを基にした4ビット量子化バージョンで、MLXフレームワーク向けに最適化されており、ロシア語と英語のコマンド理解と生成タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

Q
Vikhrmodels
249
2
Deepseek R1 Distill Llama 8B Abliterated
DeepSeek-R1-Distill-Llama-8BはLlamaアーキテクチャに基づく蒸留版大規模言語モデルで、パラメータ規模は8B、主に英語テキスト生成と理解タスクに使用されます。
大規模言語モデル
Transformers 英語

D
stepenZEN
119
9
Microsoft Phi 4 GPTQ Int4
Phi-4はマイクロソフトが開発した高効率な小型言語モデルで、限られたリソース下での高性能推論を実現
大規模言語モデル
Transformers

M
jakiAJK
1,404
2
Dolphin3.0 Llama3.2 1B GGUF
Llama3.2アーキテクチャに基づく1Bパラメータ量子化モデル、テキスト生成タスクをサポート、様々な量子化バージョン選択に対応
大規模言語モデル 英語
D
bartowski
1,134
4
H2o Danube3.1 4b Chat
Apache-2.0
H2O.aiによって微調整された40億パラメータのチャットモデル、Llama 2アーキテクチャを基に調整、8192トークンのコンテキスト長をサポート
大規模言語モデル
Transformers 英語

H
h2oai
271
5
Cotype Nano
その他
Cotype-Nanoは軽量LLMで、最小限のリソースでタスクを実行するように設計されています。リソースが制限された条件下でも高性能を発揮し、ユーザーとの迅速で効率的なインタラクションを実現するために最適化されています。
大規模言語モデル
Transformers

C
MTSAIR
4,075
51
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100wは、Meta-Llama-3.1-8B-Instructを1.4Bパラメータ規模にプルーニングし、LLM-Neoメソッド(LoRAと知識蒸留を組み合わせた)でファインチューニングした効率的な言語モデルです。トレーニングデータはBAAI/Infinity-Instructの100万行からサンプリングされています。
大規模言語モデル
Transformers

L
yang31210999
39
2
H2o Danube3 500m Chat
Apache-2.0
H2O.aiが開発した500Mパラメータの対話微調整モデル、Llama 2アーキテクチャを基に調整、中国語対話をサポート
大規模言語モデル
Transformers 英語

H
h2oai
3,728
36
Gemma 2 27b It
GemmaはGoogleが提供する軽量オープンソース大規模言語モデルシリーズで、Geminiモデルと同じ技術に基づいて構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
160.10k
543
Tinychat 1776K
Apache-2.0
これはTinyChatデータセットを使用してゼロからトレーニングされた小型言語モデルで、最小規模のモデルで自然な会話応答を実現することを目的としています。
大規模言語モデル
Transformers

T
raincandy-u
157
9
Orca Mini V5 8b Dpo
Llama 3アーキテクチャに基づく8Bパラメータモデル、複数のDPOデータセットでトレーニングされ、テキスト生成タスクに特化
大規模言語モデル
Transformers 英語

O
pankajmathur
16
3
Llava Phi 3 Mini Gguf
LLaVA-Phi-3-mini は Phi-3-mini-4k-instruct と CLIP-ViT-Large-patch14-336 をファインチューニングした LLaVA モデルで、画像からテキストへの変換タスクに特化しています。
画像生成テキスト
L
xtuner
1,676
133
Llama 3 Korean Bllossom 8B
BllossomはLlama3をベースにした韓英バイリンガル言語モデルで、韓国語能力を全面的にチューニングし、韓国語の語彙を拡張し、韓国語のコンテキスト処理能力を最適化しました。
大規模言語モデル
Transformers 複数言語対応

L
MLP-KTLim
26.67k
333
Wikichat V2
Apache-2.0
WikiChat-v0.2は現在訓練中の対話モデルで、OpenOrca GPT-4データ、cosmopedia、dolly15kデータセットに基づいて訓練され、英語テキスト生成タスクをサポートします。
大規模言語モデル 英語
W
leafspark
86
2
Creek
Apache-2.0
ゼロから構築した大規模言語モデルで、トークナイザーのトレーニング、モデル初期化、事前トレーニング、命令ファインチューニングまでの全プロセスをオープンソースで実装
大規模言語モデル
Transformers

C
maheer
21
1
Deepseek Llm Tiny Random
これはDeepSeek-LLM-67B-Chatアーキテクチャに基づくランダム初期化の小型モデルで、float16精度を採用し、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers

D
yujiepan
38
1
Gemma Ko 7b
その他
Gemma-KoはGoogleのGemmaモデルを基に開発された韓国語大規模言語モデルで、7Bパラメータバージョンを提供し、韓国語と英語のテキスト生成タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

G
beomi
381
49
Tiny Crypto Sentiment Analysis
Apache-2.0
TinyLlamaモデルをベースに、LoRA手法を用いて暗号通貨のニュース記事で微調整された感情分析モデル
大規模言語モデル
Transformers

T
curiousily
437
5
Llava Phi2
MIT
Llava-Phi2はPhi2をベースにしたマルチモーダル実装で、視覚と言語処理能力を組み合わせ、画像テキストからテキストへのタスクに適しています。
画像生成テキスト
Transformers 英語

L
RaviNaik
153
6
MELT TinyLlama 1.1B Chat V1.0
Apache-2.0
医学データでファインチューニングされた1.1Bパラメータの対話型言語モデル、医学試験ベンチマークで平均13.76%向上
大規模言語モデル
Transformers 英語

M
IBI-CAAI
3,010
1
Mobilellama 1.4B Base GGUF
Apache-2.0
MobileLLaMA-1.4B-BaseのGGUF量子化フォーマット版、ローカルデプロイと推論に適しています
大規模言語モデル
M
andrijdavid
311
2
Mobilellama 1.4B Base
Apache-2.0
MobileLLaMA-1.4B-Baseは14億パラメータのTransformerモデルで、RedPajama v1データセットに基づいてトレーニングされ、すぐに使用できるデプロイメント向けに設計されています。
大規模言語モデル
Transformers

M
mtgv
1,376
19
Cendol Mt5 Small Chat
Apache-2.0
Cendol mT5-small Chatは3億パラメータのオープンソース生成型大規模言語モデルで、インドネシア語、スンダ語、ジャワ語向けに命令チューニングされており、単一ターン対話シナリオに適しています。
大規模言語モデル
Transformers その他

C
indonlp
46
3
Tinyalpaca V0.1
MIT
TinyLlamaはLLaMAアーキテクチャに基づく小型言語モデルで、パラメータ規模は11億、alpaca-cleanedデータセットを使用してファインチューニングされています。
大規模言語モデル
Transformers

T
blueapple8259
85
1
Tiny Llama Miniguanaco 1.5T
Apache-2.0
TinyLlama 1.5Tチェックポイントは、質問に答えるために訓練された1.1Bパラメータの小型言語モデルです。
大規模言語モデル
Transformers 英語

T
Corianas
97
3
Sheared LLaMA 2.7B
Apache-2.0
Sheared-LLaMA-2.7BはLlama-2-7bを剪枝と継続事前学習によって得られた軽量言語モデルで、わずか50Bトークンの予算で作成されました。
大規模言語モデル
Transformers

S
princeton-nlp
1,131
60
Sheared LLaMA 1.3B
Apache-2.0
Sheared-LLaMA-1.3BはLLaMA-2-7Bを基に構造化プルーニングと継続事前学習を行った効率的な言語モデルです
大規模言語モデル
Transformers

S
princeton-nlp
11.09k
94
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3BはMetaがリリースしたLlama-2モデルを基にした中国語基礎モデルで、中国語語彙を拡張し中国語事前学習を行い、中国語の基礎的な意味理解能力を向上させています。
大規模言語モデル
Transformers 複数言語対応

C
hfl
1,074
19
Llama 2 7b Int4 GPTQ Python Code 20k
Gpl-3.0
これはLlama 2 7Bモデルの4ビットGPTQ量子化バージョンで、Pythonコード生成タスクに特化してファインチューニングされています
大規模言語モデル
Transformers その他

L
edumunozsala
22
1
Orca Alpaca 3b
Open_LLaMA-3Bモデルをベースにした説明的チューニングモデルで、Alpacaデータセットの指示と入力を使用し、Orca研究論文のデータセット構築方法を適用しています。
大規模言語モデル
Transformers 英語

O
pankajmathur
85
12
Dolly V2 3b
MIT
Databricksが開発した28億パラメータの命令微調整大規模言語モデル。pythia-2.8bアーキテクチャを基盤とし、1.5万件の命令データで微調整されており、商用利用が可能
大規模言語モデル
Transformers 英語

D
databricks
15.36k
289
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98