STEVE R1 7B SFT GGUF
Apache-2.0
STEVE-R1-7B-SFTの静的量子化バージョン、複数の量子化レベルをサポートし、様々なハードウェア要件に対応
テキスト生成画像 英語
S
mradermacher
203
0
Minivla Vq Bridge Prismatic
MIT
MiniVLAは、より小型でありながら高性能な視覚言語アクションモデルで、Prismatic VLMsプロジェクトコードベースと互換性があります。
画像生成テキスト
Transformers 英語

M
Stanford-ILIAD
22
0
Rdt 170m
MIT
RDT-170Mは1.7億パラメータを持つ模倣学習拡散Transformerモデルで、ロボットの視覚-言語-動作タスクに使用されます。
マルチモーダル融合
Transformers 英語

R
robotics-diffusion-transformer
278
7
Rdt 1b
MIT
100万以上のマルチロボット操作データで事前学習された10億パラメータの模倣学習拡散Transformerモデルで、マルチビュー視覚言語動作予測をサポート
マルチモーダル融合
Transformers 英語

R
robotics-diffusion-transformer
2,644
80
Octo Small
MIT
Octo小型版は拡散戦略で訓練されたロボット制御モデルで、将来4ステップの7次元動作を予測可能。多様なロボットデータセットに適用可能。
マルチモーダル融合
Transformers

O
rail-berkeley
335
13
Octo Base
MIT
Octoは拡散戦略に基づいて訓練されたロボット制御のベースモデルで、将来の動作を予測しマルチモーダル入力を処理できます。
マルチモーダル融合
Transformers

O
rail-berkeley
215
21
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98