PKU DS LAB.FairyR1 32B GGUF
FairyR1-32Bは32Bパラメータ規模の大規模言語モデルで、PKU-DS-LABによって開発され、テキスト生成タスクに特化しています。
大規模言語モデル
P
DevQuasar
134
1
Nvidia.cosmos Reason1 7B GGUF
Cosmos-Reason1-7BはNVIDIAがリリースした70億パラメータ規模のベースモデルで、画像からテキストへの変換タスクに特化しています。
大規模言語モデル
N
DevQuasar
287
1
Marin Community.marin 8b Instruct GGUF
marin-8b-instruct は8Bパラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
M
DevQuasar
343
1
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated はGLMアーキテクチャに基づく大規模言語モデルで、パラメータ規模は32Bであり、テキスト生成タスクに適しています。
大規模言語モデル
H
DevQuasar
623
2
Google.gemma 3 27b Pt GGUF
Gemma 3 27BはGoogleが開発した大規模事前学習言語モデルで、パラメータ規模は270億、様々な自然言語処理タスクに適しています。
大規模言語モデル
G
DevQuasar
477
1
Huihui Ai.granite Vision 3.2 2b Abliterated GGUF
Granite Vision 3.2 2B Abliterated は、画像テキストからテキストへの変換タスクに特化した視覚言語モデルです。
画像生成テキスト
H
DevQuasar
724
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98