Deepseek R1 Llama 8B F32 GGUF
Apache-2.0
DeepSeek-R1-Llama-8B-F32-GGUF は DeepSeek-R1-Distill-Llama-8B の量子化バージョンで、強化学習による直接訓練を採用し、自己検証、内省、拡張思考連鎖生成などの能力を備えています。
大規模言語モデル
Transformers 英語

D
prithivMLmods
326
1
Skywork R1V2 38B
MIT
天工-R1V2-38Bは現在最も先進的なオープンソースのマルチモーダル推論モデルで、多くのベンチマークテストで卓越したパフォーマンスを示し、強力な視覚推論とテキスト理解能力を備えています。
画像生成テキスト
Transformers

S
Skywork
1,778
105
Openvlthinker 7B
Apache-2.0
OpenVLThinker-7B はマルチモーダルタスク処理のために特別に設計された視覚言語推論モデルで、特に視覚数学問題解決に最適化されています。
画像生成テキスト
Transformers

O
ydeng9
594
16
Loqwqtus2.5 32B Instruct
Apache-2.0
Qwenシリーズモデルを基にした標準化ノイズ除去フーリエ補間ハイブリッドモデルで、高品質な回答と感情共鳴で知られる思考型大規模言語モデル
大規模言語モデル
Transformers 英語

L
maldv
77
2
Tulu3
その他
Tülu3はアレン人工知能研究所によって開発された次世代の命令追従モデルファミリーで、標準的なチャットアプリケーションや複雑な問題解決に優れています。
大規模言語モデル
T
cortexso
226
1
HK O1aw
Apache-2.0
HK-O1awはO1スタイルの複雑な推理能力を備えた法律アシスタントで、LLaMA-3.1-8Bをベースに香港地域の法律分野向けに設計されています。
大規模言語モデル 中国語
H
HKAIR-Lab
29
7
Einstein V6.1 Llama3 8B
その他
Meta-Llama-3-8Bを多様な科学データセットでファインチューニングした大規模言語モデルで、STEM分野のタスクに特化
大規模言語モデル
Transformers 英語

E
Weyaxi
70
67
Strangemerges 53 7B Model Stock
Apache-2.0
StrangeMerges_53-7B-model_stock は LazyMergekit を使用して複数の7Bパラメータ規模モデルを統合した結果であり、強力なテキスト生成能力を備えています。
大規模言語モデル
Transformers

S
Gille
18
1
UNA SimpleSmaug 34b V1beta
Apache-2.0
Smaug-34Bをベースにした教師あり微調整モデルで、数学と推論能力の向上に焦点を当て、34B規模のモデルの中で優れた性能を発揮します。
大規模言語モデル
Transformers

U
fblgit
18
21
Minotaur 13b Fixed
Apache-2.0
ミノタウロス13BはLlaMA-13Bを基に命令ファインチューニングを行ったモデルで、完全にオープンソースのデータセットを使用しており、再現性が保証されています。
大規模言語モデル
Transformers

M
openaccess-ai-collective
121
16
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98