Qwen2.5 CoderX 7B V0.5
Apache-2.0
Qwen2.5をファインチューニングした専門的なコード生成モデルで、構造が複雑で論理的なコードを詳細な説明付きで生成するのに優れています
大規模言語モデル
Transformers 英語

Q
oscar128372
288
2
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoning は軽量なオープンソースモデルで、数学推論タスクに特化しており、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers

P
unsloth
591
2
Acemath RL Nemotron 7B
その他
深層学習に基づく数学問題自動解決システム、代数、幾何、微積分など様々な数学問題に対応
大規模言語モデル
Transformers 英語

A
nvidia
2,990
16
Nu2 Lupi Qwen 14B
Apache-2.0
Nu2-Lupi-Qwen-14BはQwen 2.5 14Bアーキテクチャを基に設計された数学推論最適化モデルで、複雑な問題解決と論理的推論に優れています。
大規模言語モデル
Transformers

N
prithivMLmods
23
2
Deepseek R1 14b Cot Math Reasoning Full GGUF
MIT
140億パラメータ規模の数学推論大規模言語モデル、思考連鎖推論をサポート
大規模言語モデル
D
tensorblock
838
2
Deepseekmath 7B MathFusion
Apache-2.0
MathFusionQAはdeepseek-math-7b-baseを基にした数学問題解決モデルで、命令融合により大規模言語モデルの数学問題解決能力を強化します。
大規模言語モデル
Transformers 英語

D
QizhiPei
14
1
Flan T5 Large Grammar Synthesis Gguf
Apache-2.0
文法とスペル修正用のGGUF形式T5モデルで、高精度量子化バージョンをサポートし修正品質を保証します。
大規模言語モデル 英語
F
pszemraj
137
2
Yolo11 Number Operator
YOLO11xアーキテクチャに基づく物体検出モデルで、画像中の数字(0-10)や基本算術演算子(加減乗除など)を識別するために特別に設計されています。
物体検出 英語
Y
leeyunjai
15
0
Yolo11x Number Operator
数字(0-10)と基本演算子(+,-,×,÷,=)の認識に特化した物体検出モデル
物体検出 英語
Y
leeyunjai
15
0
Llama 3.1 PersianQA
Apache-2.0
Llama3をファインチューニングしたペルシャ語Q&A専用バージョンで、文脈に基づき正確にペルシャ語の質問に回答可能
質問応答システム 複数言語対応
L
zpm
474
6
Neural 4 Maths 7b
Apache-2.0
神経4数学-7bは、複数の7BパラメータモデルをLazyMergeKitで統合した数学特化モデルで、数学関連タスクに特化しています。
大規模言語モデル
Transformers

N
Kukedlc
22
1
Deepseek Math 7b Base
その他
DeepSeekMathは数学問題解決に特化した大規模言語モデルで、強力な数学的推論と計算能力を備えています。
大規模言語モデル
Transformers

D
deepseek-ai
6,924
71
ARIA 70B V2 GGUF
ARIA 70B V2 は Llama 2 アーキテクチャに基づく大規模言語モデルで、フランス語と英語をサポートし、テキスト生成タスクに特化しています。
大規模言語モデル 複数言語対応
A
TheBloke
1,100
3
Grammar T5
Apache-2.0
jflegデータセットに基づいて構築された文法チェックモデルで、t5-baseアーキテクチャを採用し、英文法の修正に特化しています。
大規模言語モデル
Transformers

G
vagmi
17
1
Mbart Russian Grammar Corrector
これはロシア語の文法誤り修正タスク用にファインチューニングされたMultilingual Bartモデルのバージョンで、ロシア語テキスト内の文法誤りを検出・修正するために特別に設計されています。
テキスト生成
Transformers その他

M
MRNH
2,104
3
Llama 7b Ru Turbo Alpaca Lora Merged
ru_turbo_alpaca はAlpacaモデルを微調整したロシア語テキスト生成モデルで、ロシア語テキスト生成タスクに適しています。
大規模言語モデル
Transformers その他

L
IlyaGusev
50
10
T5 Base Squad Qag
T5-baseをファインチューニングした英語の質問応答ペア生成モデルで、テキスト段落から質問と回答のペアを生成します。
質問応答システム
Transformers 英語

T
lmqg
267
2
English Grammar Checker
Apache-2.0
bert-base-uncasedをglueデータセットで微調整した英語文法チェックモデルで、テキスト分類タスクに使用されます。
テキスト分類
Transformers

E
abdulmatinomotoso
4,513
4
Trocr Handwritten Math
このモデルは手書き数学式の画像を対応するLaTeXシーケンスに変換でき、数式認識とデジタル処理に適しています。
文字認識
Transformers

T
Azu
46
5
T5 Base Finetuned Question Generation Ap
Apache-2.0
このモデルはT5-baseアーキテクチャに基づき、SQuAD v1.1データセットで微調整され、質問生成タスクに特化しています。
質問応答システム
Transformers 英語

T
mrm8488
6,562
109
Distilbart Qgen 3 3
Apache-2.0
このモデルはSQuADデータセットでファインチューニングされたBARTの変種で、テキスト段落と回答に基づいて対応する質問を生成するために特別に設計されています。
質問応答システム
Transformers 英語

D
gpssohi
21
3
T5 Base Grammar Correction
T5アーキテクチャに基づく文法校正モデルで、入力テキストの文法誤りを自動修正できます。
テキスト生成
Transformers 英語

T
vennify
77.05k
174
Gec T5 Small
Apache-2.0
T5-smallアーキテクチャに基づく文法誤り訂正モデルで、英語テキストの文法誤りを自動検出・修正します。
大規模言語モデル
Transformers 英語

G
Unbabel
4,285
25
Cs224n Squad2.0 Albert Base V2
スタンフォードCS224nコースの学生向けに提供される、SQuAD2.0の问答タスクのベンチマークテストに使用するALBERT-base-v2モデル
質問応答システム
Transformers

C
elgeish
169
0
Mt5 Small Jaquad Qg Ae
MT5-smallをファインチューニングした日本語の質問生成と回答抽出モデルで、与えられたテキストから質問を生成したり回答を抽出したりできます。
質問応答システム
Transformers 日本語

M
lmqg
143
1
T5 End2end Question Generation
Apache-2.0
T5-baseをファインチューニングしたエンドツーエンドの問題生成モデルで、与えられたコンテキストから自動的に関連する質問を生成できます。
質問応答システム
Transformers

T
ThomasSimonini
386
15
Mt5 Small Jaquad Qg
これはgoogle/mt5-smallをファインチューニングした日本語問題生成モデルで、与えられたテキストから関連する質問を生成するために特別に設計されています。
質問応答システム
Transformers 日本語

M
lmqg
209
2
T5 Small Squad Qg Ae
T5-smallをベースに微調整された英文質問生成と回答抽出モデルで、テキストから質問を生成したり回答を抽出するのに適しています。
質問応答システム
Transformers 英語

T
lmqg
685
0
Indobert QA
Apache-2.0
インドネシア語質問応答モデル。翻訳版SQuAD 2.0データセットで微調整され、インドネシア語の質問応答タスクに適しています。
質問応答システム
Transformers その他

I
Rifky
695
14
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98