Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
これは量子化バージョンの大規模言語モデルで、知識をより簡単に取得して利用できるようにすることを目的としています。
大規模言語モデル
H
DevQuasar
572
3
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B は、Llama アーキテクチャに基づく 8B パラメータ規模の大規模言語モデルで、蒸留トレーニングによって最適化され、テキスト生成タスクに適しています。
大規模言語モデル
D
DevQuasar
320
3
SSD 1B
Apache-2.0
SSD-1Bは安定拡散XL(SDXL)の蒸留版で、50%小型化されながら、高品質なテキストから画像生成能力を保持し、60%の速度向上を提供します。
画像生成
S
segmind
35.08k
812
Sphilberta
Apache-2.0
SPhilBERTaは古典文献学専用に設計された文変換モデルで、ラテン語と古代ギリシャ語テキスト間の言語間引用を識別します。
テキスト埋め込み 複数言語対応
S
bowphs
1,328
6
Semantic Xlmr
sentence-transformersベースの多言語文埋め込みモデルで、特にベンガル語に最適化されており、意味的類似性計算やクラスタリング分析に適しています
テキスト埋め込み
Transformers

S
headlesstech
28
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
このモデルはdistilbert-base-cased-distilled-squadをファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム
Transformers

D
ms12345
14
0
Distilbert Onnx
Apache-2.0
これはDistilBERT-base-casedモデルをベースに、知識蒸留技術を用いてSQuAD v1.1データセットでファインチューニングされた質問応答モデルです。
質問応答システム
Transformers 英語

D
philschmid
8,650
2
Distilgpt2
Apache-2.0
DistilGPT2はGPT - 2の軽量級蒸留バージョンで、8200万のパラメータを持ち、GPT - 2の核心的なテキスト生成能力を保持しながら、サイズが小さく、速度が速い。
大規模言語モデル 英語
D
distilbert
2.7M
527
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98