Tiny Random Llama 4 8E
これはデバッグ用のミニチュアモデルで、ランダム初期化されており、meta-llamaのLlama-4-Maverick-17B-128E-Instructモデルに基づいて設定されています。
大規模言語モデル
Transformers

T
katuni4ka
140
1
Tiny Random Phi 4 Multimodal
これはデバッグ用の微小モデルで、調整後の設定に基づいてランダムに初期化され、プロセスを迅速に検証するために設計されています。
画像生成テキスト
Transformers

T
katuni4ka
41.78k
0
Qwen2 Vl Tiny Random
これはQwen2-VL-7B-Instruct設定に基づきランダム初期化された小型デバッグモデルで、視覚言語タスク用です
画像生成テキスト
Transformers

Q
yujiepan
27
1
Clip Vit Tiny Random Patch14 336
これはデバッグ用の小型CLIPモデルで、ViTアーキテクチャに基づき、重みをランダムに初期化しています。
テキスト生成画像
Transformers

C
yujiepan
14.47k
0
Deepseek Llm Tiny Random
これはDeepSeek-LLM-67B-Chatアーキテクチャに基づくランダム初期化の小型モデルで、float16精度を採用し、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers

D
yujiepan
38
1
Tiny Mistral
Mistralアーキテクチャのランダム初期化モデルで、エンドツーエンドテストに適しています。
大規模言語モデル
Transformers

T
openaccess-ai-collective
23.43k
14
Tiny Random Bert Sharded
これはBERTアーキテクチャに基づく小型ランダム初期化モデルで、シャーディング技術を使用しています。
大規模言語モデル
Transformers

T
ArthurZ
2,435
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98