Moonshine Tiny ONNX
MIT
Moonshine Tinyは軽量な自動音声認識(ASR)モデルで、組み込みデバイスやエッジコンピューティングシナリオに適しています。
音声認識
Transformers

M
onnx-community
60
6
Qwen2 VL 7B Instruct Onnx
Apache-2.0
これはQwen2-VLアーキテクチャに基づく7Bパラメータ規模の視覚言語モデルで、画像理解と命令インタラクションをサポートします。
テキスト生成画像
Transformers

Q
pdufour
47
4
Camembert Base Xnli
これはtransformers.jsをベースにしたフランス語ゼロショット分類モデルで、微調整なしで多クラステキスト分類タスクに適用可能です。
テキスト分類
Transformers フランス語

C
xavierbarbier
13
0
Minueza 32M Base
Apache-2.0
Minueza-32M-Baseは3200万パラメータを持つベースモデルで、大量の英語テキストコーパスに基づいて完全に訓練されており、テキスト生成タスクに適しています。
大規模言語モデル
Transformers 英語

M
Felladrin
68
18
Trocr Small Handwritten
Transformerベースの小型手書きテキスト認識モデル、ウェブブラウザでの使用に適応
文字認識
Transformers

T
Xenova
104
6
Yolos Tiny
YOLOS-tinyは軽量級の物体検出モデルで、Transformerアーキテクチャに基づいており、リアルタイム物体検出タスクに適しています。
物体検出
Transformers

Y
Xenova
1,912
5
Wav2vec2 Large Xlsr 53 English
wav2vec 2.0アーキテクチャに基づく大規模音声認識モデルで、英語音声をテキストに変換可能
音声認識
Transformers

W
Xenova
14
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98