GLM 4.1V 9B Thinking
MIT
GLM-4.1V-9B-Thinkingは、GLM-4-9B-0414ベースモデルに基づくオープンソースのビジュアル言語モデルで、複雑なタスクにおける推論能力の向上に特化しており、64kの文脈長と4Kの画像解像度をサポートします。
画像生成テキスト
Transformers 複数言語対応

G
THUDM
163
95
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414はGLMファミリーの軽量メンバーで、90億のパラメータを持ち、数学的推論と汎用タスクで優れたパフォーマンスを発揮し、リソースが制限されたシナリオに効率的なソリューションを提供します。
大規模言語モデル 複数言語対応
G
unsloth
4,291
9
Openba V1 Based
Apache-2.0
OpenBA はオープンソースの150億パラメータバイリンガル非対称シーケンス・ツー・シーケンスモデルで、ゼロから事前学習されています。
大規模言語モデル
Transformers 複数言語対応

O
OpenNLG
94
10
GLM 4 32B 0414 8bit
MIT
このモデルはTHUDM/GLM-4-32B-0414から変換された8ビット量子化MLXフォーマットの大規模言語モデルで、中英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
mlx-community
222
4
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super は、ベースモデルとファインチューニングモデルを統合して最適化されたオープンソースの大規模言語モデルで、命令追従、数学、コーディング能力の向上に焦点を当てています。
大規模言語モデル
Transformers 複数言語対応

Q
YOYO-AI
17
3
Spaceexploreai Small Base Regression 27M
Apache-2.0
深層学習に基づく投資予測システムで、Transformerアーキテクチャを採用し、DeepSeep-V3とLLama3の設計構造を融合させ、株価の動向予測とテクニカル分析に使用されます。
大規模言語モデル 複数言語対応
S
NEOAI
57
4
Qwen2.5 VL 3B Instruct GPTQ Int4
Apache-2.0
これはQwen2.5-VL-3B-InstructモデルのGPTQ-Int4量子化バージョンで、画像テキストからテキストへのマルチモーダルタスクに適しており、中国語と英語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
hfl
1,312
2
Ola Image
Apache-2.0
Ola-7Bは、テンセント、清華大学、南洋理工大学が共同開発したマルチモーダル言語モデルで、Qwen2.5アーキテクチャを基に、画像、動画、音声、テキストの入力を処理し、テキストを出力することができます。
マルチモーダル融合 複数言語対応
O
THUdyh
61
3
Healthgpt M3
MIT
HealthGPTは統一されたマルチモーダル医療タスク向けに特別に開発されたモデルで、英語と中国語をサポートしています。
大規模言語モデル 複数言語対応
H
lintw
79
8
Deepseek R1 Medical Response
これはDeepSeek-R1をファインチューニングした医療分野のQ&Aモデルで、医療関連のテキスト生成タスクに特化しています。
大規模言語モデル
Transformers 英語

D
beita6969
28
2
ARWKV R1 1B5
Apache-2.0
ARWKV-R1-1B5 はRNNベースの70億パラメータモデルの初期プレビュー版で、DeepSeek-R1-Distill-Qwen-1.5Bからの3段階の知識蒸留トレーニングにより作成され、コンテキスト長は2kです。
大規模言語モデル
Transformers 複数言語対応

A
RWKV-Red-Team
164
4
Ola 7b
Apache-2.0
Ola-7Bは、テンセント、清華大学、南洋理工大学が共同開発したマルチモーダル大規模言語モデルで、Qwen2.5アーキテクチャを基に、テキスト、画像、動画、音声の入力を処理し、テキスト出力を生成することができます。
マルチモーダル融合
Safetensors 複数言語対応
O
THUdyh
1,020
37
Finemedlm O1
MIT
FineMedLM-o1は高度な医学推論のために特別に設計された専門医療大規模言語モデルで、多段階推論メカニズムを採用し、最終回答を出す前に思考プロセスを繰り返し推敲・改善します。
大規模言語モデル
Transformers 複数言語対応

F
hongzhouyu
55
4
Glm Edge V 2b Gguf
その他
画像テキストからテキストへの変換をサポートする高効率生成モデルで、様々なアプリケーションシーンに適用可能です。
画像生成テキスト 複数言語対応
G
THUDM
108
7
Oryx 1.5 7B
Apache-2.0
Oryx-1.5-7BはQwen2.5言語モデルを基に開発された7Bパラメータモデルで、32Kトークンのコンテキストウィンドウをサポートし、任意の空間サイズと時間長の視覚入力を効率的に処理することに特化しています。
テキスト生成ビデオ
Safetensors 複数言語対応
O
THUdyh
133
7
Yi 1.5 9B Chat 16K Abliterated
Apache-2.0
大規模言語モデルのアブレーションバージョンで、元のモデルより性能が優れており、中国語と英語、長文脈処理をサポートしています。
大規模言語モデル
Transformers 複数言語対応

Y
byroneverson
10.52k
5
Paligemma 3B Chat V0.2
google/paligemma-3b-mix-448を微調整したマルチモーダル対話モデルで、マルチターン対話シーンに最適化されています
テキスト生成画像
Transformers 複数言語対応

P
BUAADreamer
80
9
Cogvlm2 Llama3 Chat 19B Int4
その他
CogVLM2はMeta-Llama-3-8B-Instructを基に構築されたマルチモーダル対話モデルで、中英語をサポートし、8Kのコンテキスト長と1344*1344解像度の画像処理能力を備えています。
テキスト生成画像
Transformers 英語

C
THUDM
467
28
Minicpm 1B Sft Bf16
MiniCPMは面壁智能と清華大学自然言語処理研究所が共同で開発したエッジサイド大規模言語モデルシリーズで、コアモデルにはわずか12億の非単語埋め込みパラメータしか含まれておらず、複数の評価でより大規模なオープンソースモデルを上回っています。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
638
18
Minicpm V
MiniCPM-Vは、エンドデバイス展開に最適化された効率的で軽量なマルチモーダルモデルで、中英バイリンガルのインタラクションをサポートし、同規模のモデルを凌駕する性能を発揮します。
テキスト生成画像
Transformers

M
openbmb
19.74k
173
Minicpm 2B Sft Fp32
その他
MiniCPMは面壁智能と清華大学自然言語処理研究所が共同でオープンソース化した一連のエッジサイド言語大規模モデルで、主体の言語モデルMiniCPM-2Bは非単語埋め込みパラメータ数がわずか24億(2.4B)です。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
218
296
Nanbeige 16B Base 32K GGUF
Apache-2.0
Nanbeige 16B Base 32KはNanbeige LLM Labによって開発された大規模言語モデルで、中英語をサポートし、32Kのコンテキスト長を持ち、様々なテキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
N
TheBloke
1,451
4
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3BはMetaがリリースしたLlama-2モデルを基にした中国語基礎モデルで、中国語語彙を拡張し中国語事前学習を行い、中国語の基礎的な意味理解能力を向上させています。
大規模言語モデル
Transformers 複数言語対応

C
hfl
1,074
19
Codellama Chat 13b Chinese
Openrail
CodeLlaMaはプログラミング支援専用に設計されたモデルで、プログラミング関連の質問回答に優れ、中英バイリンガルのマルチターン対話をサポートします。
大規模言語モデル
Transformers 複数言語対応

C
shareAI
16
21
Vicuna Baichuan 13b Chat
Apache-2.0
Baichaun-13B-chatをベースにしたVicunaファインチューニング対話モデルで、一般的な対話や医療相談において優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

V
shibing624
44
19
Ziya Writing LLaMa 13B V1
Gpl-3.0
姜子牙ライティング大規模モデルV1は、LLaMaベースの130億パラメータ命令ファインチューニングモデルで、公文書レポート、講演原稿・手紙、クリエイティブコピーなど、さまざまなライティングタスクに特化しています。
大規模言語モデル
Transformers 複数言語対応

Z
IDEA-CCNL
23
17
Moss Moon 003 Sft
MOSSはプラグイン拡張をサポートするオープンソースの対話型言語モデルで、パラメータ数160億、中英対話とツール呼び出し機能を備えています。
大規模言語モデル
Transformers 複数言語対応

M
fnlp
98
127
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98