Beaver 7b V3.0 GGUF
Beaver-7B-v3.0 は LLaMA アーキテクチャに基づく 7B パラメータの大規模言語モデルで、安全性と人間のフィードバックによる強化学習(RLHF)に焦点を当てています。
大規模言語モデル 英語
B
mradermacher
405
1
Qwq 32B Gptqmodel 4bit Vortex V1
Apache-2.0
QwQ-32BはQwen2アーキテクチャに基づく32Bパラメータの大規模言語モデルで、GPTQ手法による4ビット整数量子化処理が施されており、効率的なテキスト生成タスクに適しています。
大規模言語モデル
Safetensors 英語
Q
ModelCloud
1,620
11
Dolphin3.0 Llama3.2 3B GGUF
Llama3.2アーキテクチャに基づく3Bパラメータの大規模言語モデルで、英文テキスト生成タスクをサポートし、llama.cppを使用したimatrix量子化を採用
大規模言語モデル 英語
D
bartowski
5,665
15
Nera Noctis 12B GGUF
その他
Nera_Noctis-12BのLlamacpp imatrix量子化バージョンで、Nitral-AI/Nera_Noctis-12Bモデルをベースにし、英語テキスト生成タスクをサポートします。
大規模言語モデル 英語
N
bartowski
64
6
Neural Chat 7b V3 1 Nebula V2 7B
Apache-2.0
このモデルは、Intelのneural-chat-7b-v3-1とPulsarAIのNebula-v2-7B-Loraを統合した大規模言語モデルです。
大規模言語モデル
Transformers 英語

N
Weyaxi
454
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98