Gemma 1.1 7b It
GemmaはGoogleが提供する軽量級のオープンモデルシリーズで、Geminiと同じ技術に基づいて構築されており、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
17.43k
271
Ultralong Thinking
SLERP法でマージされた8Bパラメータ言語モデル、DeepSeek-R1とNemotron-8Bモデルの利点を統合
大規模言語モデル
Transformers

U
mergekit-community
69
2
Gemma 3 27b It Qat Q4 0 Unquantized
Gemma 3はGoogleが提供する軽量で先進的なマルチモーダルオープンモデルで、Geminiモデルと同じ研究と技術に基づいて構築されており、テキストと画像の入力をサポートしテキスト出力を生成します。
テキスト生成画像
Transformers

G
google
11.53k
23
Gemma 3 4b It Quantized W4A16
Gemma 3はGoogleが開発した軽量オープンソース大規模言語モデルで、このリポジトリでは4Bパラメータ版のW4A16量子化モデルを提供し、ハードウェア要件を大幅に低減します。
大規模言語モデル
Transformers

G
abhishekchohan
592
2
Gemma 3 12b It Qat Q4 0 Gguf
Gemma 3はGoogleが提供する軽量で最先端のオープンソースマルチモーダルモデルで、画像とテキストの入力とテキスト出力をサポートし、128Kのコンテキストウィンドウと140以上の言語に対応しています。
画像生成テキスト
G
google
40.86k
109
Gemma 3 1b It
Gemma 3はGoogleが提供する軽量で先進的なオープンモデルシリーズで、Geminiモデルと同じ研究と技術に基づいて構築されています。このモデルはマルチモーダルモデルであり、テキストと画像の入力を処理し、テキスト出力を生成できます。
テキスト生成画像
Transformers

G
google
2.1M
347
Llama 3 ELYZA JP 8B
ELYZA社が訓練した大規模言語モデルで、Meta-Llama-3-8B-Instructを基に日本語能力を強化
大規模言語モデル
Transformers 複数言語対応

L
elyza
13.52k
113
Gemma 2 27b It
GemmaはGoogleが提供する軽量オープンソース大規模言語モデルシリーズで、Geminiモデルと同じ技術に基づいて構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
160.10k
543
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル
Transformers 複数言語対応

I
Vikhrmodels
74
11
Meta Llama 3 70B Instruct AWQ
その他
Meta-Llama-3-70B-InstructはMetaがリリースした700億パラメータ規模の命令チューニング大規模言語モデルで、対話ユースケースに最適化されており、安全性と有用性の面で優れた性能を発揮します。
大規模言語モデル
Transformers 英語

M
TechxGenus
210
12
Openelm 450M Instruct
OpenELMは階層的スケーリング戦略でパラメータ割り当てを最適化したオープンソースの効率的言語モデル群で、2.7億から30億パラメータの事前学習版及び命令チューニング版を含みます。
大規模言語モデル
Transformers

O
apple
114.41k
47
Codegemma 7b It
CodeGemmaはGemmaを基に構築された軽量オープンソースコードモデルコレクションで、コード生成、補完、対話タスクに特化しています。
大規模言語モデル
Transformers

C
google
3,286
217
Codegemma 7b It GGUF
CodeGemmaはGemmaをベースに構築された軽量オープンソースコードモデルシリーズで、コード補完、生成、対話タスクに特化しています。
大規模言語モデル
C
google
46
56
Codellama 13b Instruct Hf
Code LlamaはMetaがリリースした事前学習済みテキスト生成モデルシリーズで、コード生成と理解に特化しており、70億から340億パラメータの異なるバージョンが含まれています。
大規模言語モデル
Transformers その他

C
meta-llama
2,307
22
Swallow 70b Hf
Llama 2シリーズを基に日本語能力を強化したオープンソース大規模言語モデルで、7B/13B/70Bの3つの規模と命令チューニング版を提供
大規模言語モデル
Transformers 複数言語対応

S
tokyotech-llm
2,088
10
Llama2 MedTuned 7b
Apache-2.0
Llama2 7Bモデルを基に命令チューニングを行った生物医学分野専用モデル
大規模言語モデル
Transformers

L
nlpie
444
11
Codellama 13b Instruct Hf
CodeLlama-13b-InstructはMetaがリリースした130億パラメータの命令チューニングコード生成モデルで、安全な命令追従とコードアシスタントアプリケーション向けに設計されています
大規模言語モデル
Transformers その他

C
codellama
206.94k
147
Gpt2 Open Instruct V1
MIT
これはopen-instruct-v1データセットでファインチューニングされたGPT2モデルで、アルパカ形式のプロンプトテンプレートを使用して命令チューニングを行っています。
大規模言語モデル
Transformers 英語

G
vicgalle
2,124
34
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98