Teapotai Teapotllm Onnx
MIT
TeapotLLMのONNXバージョンで、Transformers.jsを介してブラウザで実行可能な多言語テキスト生成モデルです。
大規模言語モデル
Transformers 複数言語対応

T
tomasmcm
46
1
Granite Embedding 107m Multilingual GGUF
Apache-2.0
IBM Graniteチームによって開発された多言語埋め込みモデルの量子化バージョンで、17種類の言語のテキスト埋め込みタスクをサポートし、検索や情報抽出などのシナリオに適しています。
テキスト埋め込み 複数言語対応
G
bartowski
15.19k
1
Depth Anything Small Hf
ONNX形式の小型深度推定モデル、Transformers.jsフレームワークに適応し、ウェブ端末での深度マップ予測に適しています
3Dビジョン
Transformers

D
Xenova
4,829
8
Tapas Tiny Masklm
TAPASは表ベースの事前学習言語モデルで、表データに関連するタスクを処理するために特別に設計されています。
大規模言語モデル
Transformers

T
google
16
0
Mengzi Oscar Base
Apache-2.0
Oscarフレームワークに基づいて構築された中国語多モーダル事前学習モデルで、孟子-Bert基本版で初期化され、370万組の画像テキストペアで訓練されています。
画像生成テキスト
Transformers 中国語

M
Langboat
20
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98