Deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1はLlamaアーキテクチャに基づく8Bパラメータ推論モデルで、1.58ビット+2ビット動的量子化技術を採用し精度を向上
大規模言語モデル 英語
D
unsloth
37.60k
266
Coqllm FineTuned Experiment Gen0
Openrail
本モデルは形式的定理証明分野における実験的な取り組みで、Coqコードの生成と解釈に特化しています。10,000以上のCoqソースファイルからなる包括的なデータセットを活用し、Coq特有の構文と意味論を理解する能力を強化することで、自動定理証明の重要な進展を促進します。
大規模言語モデル
C
florath
27
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98