Dmind 1
MIT
DMind-1はQwen3-32Bをベースに構築されたWeb3専門家モデルで、監督付き命令微調整と人間のフィードバック強化学習を通じてWeb3エコシステムに最適化されており、タスクの正確性、コンテンツの安全性、専門家レベルのインタラクション調整において顕著な向上を実現しています。
大規模言語モデル
Transformers 複数言語対応

D
DMindAI
129
21
Llama 3.2 1B GGUF
Llama 3.2 は Meta がリリースした 1B および 3B パラメータ規模の多言語生成モデルコレクションで、対話シナリオ向けに最適化され、複数の言語タスクをサポートします。
大規模言語モデル 複数言語対応
L
Mungert
643
3
Llama 3.2 3B Instruct QLORA INT4 EO8
Llama 3.2はMetaが開発した多言語大規模言語モデルで、1Bと3Bの2種類のパラメータ規模を提供し、様々な言語タスクをサポートし、既存のオープンソースおよびクローズドソースモデルよりも性能が優れています。
大規模言語モデル
PyTorch 複数言語対応
L
meta-llama
289
68
Llama 3.1 Nemotron 70B Instruct HF
NVIDIAがカスタマイズした大規模言語モデルで、大規模言語モデルがユーザーのクエリに対して生成する返答の有用性を向上させることを目的としています。
大規模言語モデル
Transformers 英語

L
nvidia
29.98k
2,033
Llama 3 8B Japanese Instruct
これは日本語会話データセットで微調整されたMeta-Llama-3-8B-Instructモデルで、日本語会話タスクに特化しています。
大規模言語モデル
Transformers 複数言語対応

L
haqishen
33
22
Fialka 13B V4
Apache-2.0
スミレシリーズ言語モデルは命令追従とロシア語対話維持のために特別に訓練されており、第4世代はRLHFで最適化され、より強力な応答能力と豊富な情報量を備えています。
大規模言語モデル
Transformers その他

F
0x7o
95
5
Llama 2 7b Hf
Llama 2はMetaによって開発された70億パラメータ規模の事前学習済みテキスト生成モデルで、オープンソースの大規模言語モデルシリーズに属します
大規模言語モデル
Transformers 英語

L
meta-llama
914.57k
2,038
Llama 2 70b Hf
Llama 2はMetaが開発したオープンソース大規模言語モデルシリーズで、70億から700億パラメータ規模をカバーし、英語テキスト生成タスクをサポートします。
大規模言語モデル
Transformers 英語

L
meta-llama
33.86k
849
Stable Vicuna 13B GPTQ
StableVicuna-13BはVicuna-13B v0モデルをベースに、RLHFで微調整された対話モデルで、4ビットGPTQ量子化形式を採用しています。
大規模言語モデル
Transformers 英語

S
TheBloke
49
219
Stable Vicuna 13b Delta
StableVicuna-13BはVicuna-13B v0モデルを基に、人間のフィードバックによる強化学習(RLHF)と近接方策最適化(PPO)を用いて、様々な対話および命令データセットで微調整されたモデルです。
大規模言語モデル
Transformers 英語

S
CarperAI
31
455
Deepspeed Chat Step3 Rlhf Actor Model Opt1.3b
OPT-1.3bモデルを基に、DeepSpeed-ChatフレームワークでRLHF訓練を施した対話生成モデル
大規模言語モデル
Transformers 英語

D
zen-E
30
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98