Midm 2.0 Base Instruct Gguf
MIT
Mi:dm 2.0は、KTの独自技術を用いて開発された「韓国を中心としたAI」モデルで、韓国社会独自の価値観、認知枠組み、常識推論を深く内包しています。
大規模言語モデル
Transformers 複数言語対応

M
mykor
517
1
Midm 2.0 Mini Instruct Gguf
MIT
Mi:dm 2.0は韓国を中心としたAIモデルで、KTが独自技術を用いて開発しました。このモデルは韓国社会独自の価値観、認知フレームワーク、常識推論を深く内包しており、韓国語のコンテンツを処理および生成するだけでなく、韓国社会の文化規範と価値観に対する深い理解を体現しています。
大規模言語モデル
Transformers 複数言語対応

M
mykor
470
3
Marin 8b Instruct
Apache-2.0
Marin 8Bはオープンソースの8Bパラメータ規模の大規模言語モデルで、Llamaアーキテクチャに基づいて開発され、英語テキスト生成タスクをサポートします。
大規模言語モデル
Safetensors 英語
M
marin-community
239
1
Llama 3.1 8B AthenaSky MegaMix
Apache-2.0
MergeKitを使用して複数の高品質モデルを融合した8Bパラメータの大規模言語モデルで、推論、対話、創造的生成能力を最適化
大規模言語モデル
Transformers 英語

L
ZeroXClem
105
2
Guardreasoner 1B
その他
GuardReasoner 1Bはmeta-llama/Llama-3.2-1BをR-SFTとHS-DPOで微調整したバージョンで、人間とAIの相互作用を分析する分類タスクに特化しています。
大規模言語モデル
Transformers 英語

G
yueliu1999
154
4
Guardreasoner 3B
その他
Llama-3.2-3Bを基にR-SFTとHS-DPO手法でファインチューニングしたセキュリティ保護モデルで、人間と機械のインタラクションにおける有害コンテンツを分析するために使用されます
大規模言語モデル
Transformers

G
yueliu1999
172
3
Guardreasoner 8B
Apache-2.0
GuardReasoner 8Bはmeta-llama/Llama-3.1-8Bをファインチューニングしたモデルで、推論型LLMセキュリティ保護に特化
大規模言語モデル
Transformers

G
yueliu1999
480
2
Hunyuan 7B Instruct
その他
混元-7B-Instructはテンセントがリリースした中英バイリンガル大規模言語モデルで、強力なテキスト生成と理解能力を備えており、現在最も優れた中国語7B Denseモデルの一つです。
大規模言語モデル
Transformers 英語

H
tencent
598
48
Gemma 2 27b
GemmaはGoogleが開発した軽量オープンソース大規模言語モデルで、Geminiと同じ技術を基に構築されており、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
google
11.89k
207
Llama3 German 8B 32k
Meta Llama3-8Bを基に最適化したドイツ語大規模言語モデル。650億のドイツ語コーパスで継続的に事前学習され、ドイツ語に最適化され32kの長文コンテキストをサポート
大規模言語モデル
Transformers ドイツ語

L
DiscoResearch
91
13
Calme 2.3 Llama3 70b
Meta-Llama-3-70B-InstructモデルをDPOファインチューニングした大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮
大規模言語モデル
Transformers 英語

C
MaziyarPanahi
31
4
Rhea 72b V0.5
Apache-2.0
Rhea-72b-v0.5はSmaug-72B-v0.1を微調整した大規模言語モデルで、HuggingFaceオープン大規模モデルランキングで1位を獲得しています。
大規模言語モデル
Transformers 英語

R
davidkim205
103
135
Openhercules 2.5 Mistral 7B AWQ
Apache-2.0
OpenHercules-2.5-Mistral-7BはMistral-7Bアーキテクチャを基にした融合モデルで、Hercules-2.5-Mistral-7BとOpenHermes-2.5-Mistral-7Bの利点を組み合わせ、テキスト生成と対話タスクに適しています。
大規模言語モデル
Transformers 英語

O
solidrust
30
1
Gemma 7b Zephyr Sft
その他
Google Gemma 7Bモデルをベースに、Zephyr SFTレシピでファインチューニングされた大規模言語モデルで、主にテキスト生成タスクに使用されます
大規模言語モデル
Transformers

G
wandb
19
2
Ghost 7b V0.9.1
MIT
Ghost 7Bは推論とマルチタスク知識に特化した大規模言語モデルで、英語とベトナム語をサポートし、Mistral 7Bアーキテクチャを基にしています。
大規模言語モデル
Transformers 複数言語対応

G
ghost-x
1,142
11
Orthogonal 2x7B V2 Base
orthogonal-2x7B-v2-baseは、Mistral-7B-Instruct-v0.2とSanjiWatsuki/Kunoichi-DPO-v2-7Bを基にした混合専門家モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers

O
LoSboccacc
80
1
Darebeagle 7B
Apache-2.0
DareBeagle-7BはLazyMergekitを使用してmlabonne/NeuralBeagle14-7Bとmlabonne/NeuralDaredevil-7Bを統合した7Bパラメータの大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮しています。
大規模言語モデル
Transformers

D
shadowml
77
1
Tiny Llava V1 Hf
Apache-2.0
TinyLLaVAは小規模ながら高性能なマルチモーダルモデルフレームワークで、視覚言語タスクに特化しています。
画像生成テキスト
Transformers 複数言語対応

T
bczhou
2,372
57
Galactica 6.7B EssayWriter
Galacticaアーキテクチャに基づく67億パラメータの大規模言語モデルで、文章執筆タスクに特化しており、オープン大規模言語モデルランキングで平均スコア37.75を獲得しています。
大規模言語モデル
Transformers

G
KnutJaegersberg
105
4
Openorca Platypus2 13B
OpenOrca-Platypus2-13BはPlatypus2-13BとOpenOrcaxOpenChat-Preview2-13Bの融合モデルで、STEM/論理データセットとGPT-4精製データセットの利点を組み合わせています
大規模言語モデル
Transformers 英語

O
Open-Orca
5,266
225
Polyglot Ko 12.8b
Apache-2.0
Polyglot-Ko-12.8BはEleutherAIの多言語チームによって開発された大規模な韓国語自己回帰型言語モデルで、12.8億のパラメータを持ち、韓国語に特化して最適化されています。
大規模言語モデル
Transformers 韓国語

P
EleutherAI
732
82
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98