Tinyclip ViT 8M 16 Text 3M YFCC15M
MIT
TinyCLIPは大規模な言語-画像事前学習モデル向けの革新的なクロスモーダル蒸留手法で、親和性模倣と重み継承技術により速度と精度の最適なバランスを実現します。
テキスト生成画像
Transformers

T
wkcn
56.32k
9
Tinyclip ViT 61M 32 Text 29M LAION400M
MIT
TinyCLIPは大規模言語-画像事前学習モデル向けの革新的なクロスモーダル蒸留手法で、アフィニティ模倣と重み継承技術により、速度と精度の最適なバランスを実現しました。
テキスト生成画像
Transformers

T
wkcn
950
1
Tinyclip ViT 40M 32 Text 19M LAION400M
MIT
TinyCLIPは大規模言語-画像事前学習モデルのための革新的なクロスモーダル蒸留手法で、アフィニティ模倣と重み継承技術により、小規模CLIPモデルの効率的な訓練を実現しました。
テキスト生成画像
Transformers

T
wkcn
4,675
5
Tinyclip ViT 39M 16 Text 19M YFCC15M
MIT
TinyCLIPは大規模言語-画像事前学習モデルのための革新的なクロスモーダル蒸留手法で、アフィニティ模倣と重み継承技術により、速度と精度の最適なバランスを実現しました。
テキスト生成画像
Transformers

T
wkcn
654
0
Clip Vit B 32 Japanese V1
これは日本語に適したCLIPテキスト/画像エンコーダーモデルで、蒸留技術を用いて英語版CLIPモデルから日本語版に変換されました。
テキスト生成画像
Transformers 日本語

C
sonoisa
690
21
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98