Phi 4 Mini Reasoning GGUF
MIT
Phi-4-mini-reasoningは合成データに基づいて構築された軽量のオープンモデルで、高品質で推論に富んだデータに焦点を当て、より高度な数学的推論能力に対してさらに微調整されています。
大規模言語モデル
Transformers

P
Mungert
3,592
3
Poseless 3B
Apache-2.0
Poseless-3Bは、視覚言語モデル(VLM)ベースのロボットハンド制御フレームワークで、明示的な姿勢推定なしに2D画像を関節角度に直接マッピングできます。
姿勢推定
Transformers

P
Menlo
65
10
Flux.1 Dev Controlnet Upscaler
その他
Jasper研究チームによって開発された低解像度画像を拡大するためのControlNetモデル
画像の拡張
F
jasperai
11.16k
710
Depth Anything V2 Metric Indoor Base Hf
Depth Anything V2モデルを基に、屋内計量深度推定タスク向けにHypersim合成データセットでファインチューニングしたバージョン
3Dビジョン
Transformers

D
depth-anything
9,056
1
Depth Anything V2 Metric Outdoor Small Hf
Depth Anything V2をベースにしたファインチューニング版で、屋外シーンのメトリック深度推定のために設計され、合成データセットVirtual KITTIで訓練されています。
3Dビジョン
Transformers

D
depth-anything
459
1
Gemma 2 9B It SPPO Iter3
自己対戦選好最適化手法を用いて第3反復で開発された89億パラメータ言語モデル。google/gemma-2-9b-itをベースに、UltraFeedbackデータセットで微調整
大規模言語モデル
Transformers 英語

G
UCLA-AGI
6,704
125
Llama 3 Instruct 8B SPPO Iter3
Apache-2.0
Meta-Llama-3-8B-Instructアーキテクチャに基づき、Self-Play Preference Optimization方法を用いて第三次反復で開発された大規模言語モデル。
大規模言語モデル
Transformers 英語

L
UCLA-AGI
8,539
83
Merlinite 7b Lab
Apache-2.0
魔灵石 7BはMistral-7B-v0.1をベースに開発された言語モデルで、IBMの研究によるLABアラインメント方法で訓練され、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers

M
instructlab
285
22
Bert Base Cased NER Reranker
MIT
BERTアーキテクチャに基づく命名エンティティ認識(NER)コンテキスト再ソートモデルで、コンテキスト文がNER予測に与える影響度を評価するために使用されます。
シーケンスラベリング
Transformers 英語

B
compnet-renard
84
0
Roberta Base Zeroshot V2.0 C
MIT
RoBERTaアーキテクチャに基づくゼロショット分類モデルで、トレーニングデータ不要のテキスト分類タスク向けに設計されており、GPUとCPUの両方で実行可能、完全に商用利用可能なデータでトレーニングされています。
テキスト分類
Transformers 英語

R
MoritzLaurer
3,188
4
Dhenu Vision Lora 0.1
Apache-2.0
Qwen-VL-chatを微調整した農業病害検出モデルで、米、トウモロコシ、小麦の3大作物の病害識別と防除アドバイスに特化しています。
テキスト生成画像
Transformers 英語

D
KissanAI
96
9
Nous Hermes 2 Mistral 7B DPO AWQ
Apache-2.0
Nous Hermes 2は、Mistral 7B DPOをベースにした次世代の旗艦級7B Hermesモデルで、DPO最適化を施し、複数のテストベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

N
solidrust
84
8
Openmath CodeLlama 7b Python Hf
OpenMathモデルは、テキスト推理とPythonインタープリターで実行されるコードブロックを統合することで、数学問題を解くために特別に設計されています。OpenMathInstruct-1データセットを基に訓練され、180万の数学問題と解決策のペアを含んでいます。
大規模言語モデル
Transformers 複数言語対応

O
nvidia
83
7
Openmath Mistral 7B V0.1 Hf
Apache-2.0
OpenMathモデルはテキスト推論とPythonインタプリタ実行のコードブロックを組み合わせて数学問題を解決し、Mistral-7B-v0.1を微調整したものです
大規模言語モデル
Transformers 複数言語対応

O
nvidia
22
31
Octfusion Exp1 HKDB Synthetic
OCTFusionはPyTorchベースの画像分類モデルで、合成データにおいて100%の精度を達成しました。
画像分類
Transformers

O
g30rv17ys
33
0
T5 Base Multi Sentence Doctor
T5ベースのモデルで、英語、ドイツ語、フランス語のテキスト中の文の誤りを修正するためのもの
大規模言語モデル
Transformers

T
flexudy
341
45
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98