# 軽量級モデル
Gemma 3 1b It Medical O1 Reasoning Finetune 16bit
Apache-2.0
Gemma-3 1Bモデルを微調整した医学推論専用モデルで、段階的な推論をサポートする医学の質問と回答が可能です。
大規模言語モデル
Transformers English

G
ArindamSingh
1,351
1
PP LCNet X1 0 Table Cls
Apache-2.0
PP-LCNet_x1_0_table_clsは、入力された表画像を分類するための効率的な表分類モデルで、有線表と無線表の分類をサポートしています。
画像分類 Supports Multiple Languages
P
PaddlePaddle
1,141
0
Korean PP OCRv3 Mobile Rec
Apache-2.0
超軽量級の韓国語テキスト行認識モデルで、韓国語と数字文字の認識をサポートし、平均正解率は60.21%です。
文字認識 Supports Multiple Languages
K
PaddlePaddle
277
0
Latin PP OCRv3 Mobile Rec
Apache-2.0
PaddleOCRチームが開発した超軽量級のラテン語テキスト行認識モデルで、ラテン語と数字文字の認識をサポートします。
文字認識 Supports Multiple Languages
L
PaddlePaddle
898
0
Arabic PP OCRv3 Mobile Rec
Apache-2.0
PaddleOCRチームが開発した超軽量級のアラビア文字認識モデルで、アラビア文字と数字文字の認識をサポートします。
文字認識 Supports Multiple Languages
A
PaddlePaddle
287
0
PP LCNet X1 0 Doc Ori
Apache-2.0
文書画像の方向分類モジュールで、文書画像の方向を区別し、後処理で校正し、OCR処理の精度を向上させます。
画像分類 Supports Multiple Languages
P
PaddlePaddle
9,506
0
Docfusion
Apache-2.0
DocFusionは文書解析タスク用の統一フレームワークで、既存の文書解析方法におけるシステムの複雑さや性能制限などの問題を解決し、文書解析により効率的で統一された解決策を提供します。
文字認識
PyTorch
D
sc22mc
107
1
Qwen2 VL 2B GGUF
Apache-2.0
Qwen2-VL-2Bはビジュアル言語モデルで、GGUF形式の量子化バージョンを提供し、さまざまなシーンに適用できます。
テキスト生成画像
Transformers English

Q
tensorblock
314
0
Phi 3.5 Mini Instruct Onnx
MIT
Phi-3.5 Miniは軽量級で最先端のオープンモデルで、128Kトークンのコンテキスト長をサポートし、メモリ/計算資源が制限された環境や低遅延シナリオに適しています。
大規模言語モデル
P
microsoft
1,056
30
Whisper Tiny Ru
Apache-2.0
このモデルはopenai/whisper-tinyをベースに、Common Voice 14.0データセットで微調整したロシア語自動音声認識モデルです。
音声認識
Transformers

W
whitemouse84
333
1
Hugging Doge
HuggingPicsによって生成された画像分類モデルで、異なる犬種を識別するために特化しています。
画像分類
Transformers

H
velociraptor
15
0
Mengzi T5 Base
Apache-2.0
300Gの中国語コーパスに基づいて事前学習された軽量級の知能事前学習モデル
大規模言語モデル
Transformers Chinese

M
Langboat
6,073
55
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98