Wan2.1 T2V 14B
Apache-2.0
万2.1はオープンで先進的な大規模動画生成モデルであり、最先端の性能を備え、消費者向けGPUでの実行をサポートし、マルチタスク処理において卓越したパフォーマンスを発揮します。
テキスト生成ビデオ 複数言語対応
W
wan-community
17
0
Wan2.1 Fun 14B Control Gguf
Apache-2.0
阿里巴巴PAIがリリースした14Bパラメータ規模のマルチモーダルモデルで、テキストから動画生成タスクをサポート
テキスト生成ビデオ 複数言語対応
W
city96
5,120
10
Qwen2.5 VL 32B Instruct GGUF
Apache-2.0
Qwen2.5-VL-32B-Instruct は、画像とテキストの共同理解と生成タスクをサポートするマルチモーダル視覚言語モデルです。
画像生成テキスト 英語
Q
samgreen
25.59k
6
Text2motion
Apache-2.0
テキストから動画へは、オープンで先進的な動画生成モデルであり、テキストから動画生成、画像から動画生成など多様なタスクをサポートし、コンシューマー向けGPUと互換性があります。
テキスト生成ビデオ 英語
T
sbapan41
283
0
Ola Video
Apache-2.0
Ola-7Bは、テンセント、清華大学、南洋理工大学が共同開発したマルチモーダル言語モデルで、Qwen2.5アーキテクチャを基に、テキスト、画像、動画、音声の入力をサポートし、テキストコンテンツを出力します。
複数言語対応
O
THUdyh
82
1
Wiroai Finance Qwen 1.5B
Apache-2.0
Qwenアーキテクチャを基にした金融分野専用言語モデル、50万以上の金融命令でファインチューニング済み
大規模言語モデル
Transformers

W
WiroAI
886
16
Mineru
Apache-2.0
このモデルはPDF文書をMarkdown形式に変換し、元の文書のレイアウト構造を保持し、数学式や表を正確に認識します。
画像生成テキスト
Transformers 複数言語対応

M
kitjesen
122
12
Minicpm Llama3 V 2 5 GGUF
MiniCPM-Llama3-V-2_5はLlama3アーキテクチャに基づくマルチモーダル視覚質問応答モデルで、中英二言語のインタラクションをサポートします。
テキスト生成画像 複数言語対応
M
gaianet
112
3
Longwriter Glm4 9b
LongWriter-glm4-9bはglm-4-9bをベースに訓練された長文生成モデルで、一度に10,000字以上のテキストを生成できます。
大規模言語モデル
Transformers 複数言語対応

L
THUDM
376
122
Kolors
Apache-2.0
可図(Kolors)はKuaishou可図チームが独自開発した大規模テキストから画像生成の潜在拡散モデルで、生成画像の視覚品質、複雑な意味の再現度、中英文字体のレンダリングなどで優れた性能を発揮します。
テキスト生成画像 複数言語対応
K
Kwai-Kolors
1,546
799
360VL 70B
Apache-2.0
360VLはLLama3言語モデルを基に開発されたオープンソースの大規模マルチモーダルモデルで、強力な画像理解能力と二言語テキストサポートを備えています。
テキスト生成画像
Transformers 複数言語対応

3
qihoo360
103
10
Cogvlm2 Llama3 Chinese Chat 19B
その他
CogVLM2はMeta-Llama-3-8B-Instructを基に構築されたマルチモーダル大規模モデルで、中英二言語をサポートし、強力な画像理解と対話能力を備えています。
テキスト生成画像
Transformers 英語

C
THUDM
118
68
Yi VL 6B Hf
その他
Yi-VL-6Bは01-AIによって開発されたマルチモーダル視覚言語モデルで、中国語と英語をサポートし、視覚質問応答などのタスクに適しています。
画像生成テキスト
Transformers 複数言語対応

Y
BUAADreamer
55
2
Minicpm V 2
MiniCPM-V 2.0は効率的なエンドサイド展開に向けた強力なマルチモーダル大規模言語モデルで、SigLip-400MとMiniCPM-2.4Bを基盤に構築され、知覚器リサンプラーで接続されています。
テキスト生成画像
Transformers 複数言語対応

M
openbmb
9,097
461
360zhinao 7B Base
Apache-2.0
360智脳は奇虎360によって開発されたオープンソースの大規模言語モデルシリーズで、基本モデルと複数のコンテキスト長の対話モデルを含み、中国語と英語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

3
qihoo360
90
5
E Commerce Bert Base Multilingual Cased
これはsentence-transformersベースのモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、EC分野のテキスト類似度計算や意味検索タスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

E
EZlee
160
6
Chinese Llama 2 7b 16k
Apache-2.0
Chinese-LLaMA-2-7B-16KはMetaが公開したLlama-2を基に開発された中国語大規模モデルで、16Kの文脈長をサポートし、推論と全パラメータ学習に適しています。
大規模言語モデル
Transformers 複数言語対応

C
hfl
57
11
T5 Large Sentiment Analysis Chinese MultiTask
改良版T5モデル、中国語感情分析タスク向けに設計され、複数の感情分析サブタスクと出力形式をサポートします。
テキスト分類
Transformers 複数言語対応

T
yuyijiong
71
27
Glm 2b
GLM-2Bは自己回帰空白埋め目標に基づいて事前学習された汎用言語モデルで、様々な自然言語理解と生成タスクをサポートします。
大規模言語モデル
Transformers 英語

G
THUDM
60
16
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98