Qwen3 Embedding 8B Auto
Apache-2.0
Qwen3 Embeddingモデルシリーズは通義ファミリーの最新の独自開発モデルで、テキスト埋め込みとソートタスク用に設計され、100種類以上の言語をサポートし、MTEB多言語ランキングで1位を獲得しています。
テキスト埋め込み
Q
michaelfeil
135
1
Internvl3 38B Instruct GGUF
Apache-2.0
InternVL3-38B-Instruct は先進的なマルチモーダル大規模言語モデル(MLLM)で、卓越した全体的な性能と強力なマルチモーダル知覚・推論能力を備えています。
画像生成テキスト
Transformers

I
unsloth
1,236
2
Internvl3 8B Instruct GGUF
Apache-2.0
InternVL3-8B-Instruct は先進的なマルチモーダル大規模言語モデル(MLLM)で、卓越した全体的な性能と強力なマルチモーダル知覚・推論能力を備えています。
テキスト生成画像
Transformers

I
unsloth
2,412
1
Internvl3 14B Instruct GGUF
Apache-2.0
InternVL3-14B-Instructは先進的なマルチモーダル大規模言語モデル(MLLM)で、優れたマルチモーダル知覚と推論能力を示し、ツール使用、GUIエージェント、産業画像分析、3D視覚知覚など様々なタスクをサポートします。
画像生成テキスト
Transformers

I
unsloth
982
1
Internvl3 1B GGUF
Apache-2.0
InternVL3-1Bは、高度なマルチモーダル大規模言語モデルであり、マルチモーダル感知や推論などの能力に優れており、ツール使用やGUIエージェントなどのマルチモーダル能力も拡張されています。
マルチモーダル融合
Transformers

I
unsloth
868
2
Qwen3 14B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-14B-Baseは通義千問シリーズの最新世代大規模言語モデルで、148億パラメータの密モデルを提供し、32kの文脈長をサポート、119言語をカバーします。
大規模言語モデル
Transformers

Q
unsloth
2,120
1
Qwen3 8B Base
Apache-2.0
Qwen3-8B-Baseは通義大規模言語モデルシリーズの最新世代の製品で、82億のパラメータを持ち、119種類の言語をサポートし、様々な自然言語処理タスクに適しています。
大規模言語モデル
Transformers

Q
unsloth
5,403
1
Qwen3 1.7B Base
Apache-2.0
Qwen3-1.7B-Baseは通義シリーズの最新世代の大規模言語モデルで、一連の密集モデルとエキスパート混合(MoE)モデルを提供し、学習データ、モデルアーキテクチャ、最適化技術などの面で多くの改善が行われています。
大規模言語モデル
Transformers

Q
unsloth
7,444
2
Qwen3 0.6B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-0.6B-Baseは通義シリーズの最新世代の大規模言語モデルで、0.6Bのパラメータ規模を持ち、119種類の言語をサポートし、文脈長は32,768トークンに達します。
大規模言語モデル
Transformers

Q
unsloth
10.84k
1
Qwen3 0.6B Base
Apache-2.0
Qwen3-0.6B-Baseは通義千問シリーズの最新世代の大規模言語モデルで、一連の密集モデルと混合専門家(MoE)モデルを提供します。
大規模言語モデル
Transformers

Q
unsloth
10.84k
2
Internvl3 9B AWQ
MIT
InternVL3-9BはInternVL3シリーズのマルチモーダル大規模言語モデルで、優れたマルチモーダル知覚と推論能力を備え、ツール使用、GUIエージェント、産業画像分析、3D視覚知覚など多様な応用シーンをサポートします。
テキスト生成画像
Transformers その他

I
OpenGVLab
214
1
Internvl3 8B AWQ
その他
InternVL3-8BはOpenGVLabが開発した先進的なマルチモーダル大規模言語モデルで、強力なマルチモーダル知覚と推論能力を備え、ツール呼び出し、GUIエージェント、産業画像分析、3D視覚知覚などの新領域をサポートします。
画像生成テキスト
Transformers その他

I
OpenGVLab
1,441
3
Internvl3 2B AWQ
その他
InternVL3-2BはOpenGVLabが開発した先進的なマルチモーダル大規模言語モデル(MLLM)で、優れたマルチモーダル知覚と推論能力を備え、ツール使用、GUIエージェント、産業画像分析、3D視覚知覚などをサポートします。

I
OpenGVLab
677
1
Internvl3 1B Pretrained
その他
InternVL3-1BはOpenGVLabが開発した先進的なマルチモーダル大規模言語モデルで、ネイティブマルチモーダル事前学習を完了していますが、事後学習は行われていません。
テキスト生成画像
Transformers その他

I
OpenGVLab
18
2
Internvl3 9B Instruct
MIT
InternVL3-9B-InstructはInternVL3シリーズの教師付き微調整バージョンで、強力なマルチモーダル知覚と推論能力を備え、画像、テキスト、動画など様々なモダリティ処理をサポートします。
画像生成テキスト
Transformers その他

I
OpenGVLab
220
2
Internvl3 8B Instruct
その他
InternVL3-8B-Instruct は先進的なマルチモーダル大規模言語モデル(MLLM)で、優れたマルチモーダル知覚と推論能力を示し、ツール使用、GUIエージェント、産業画像分析、3D視覚知覚など多様な機能をサポートします。
画像生成テキスト
Transformers その他

I
OpenGVLab
885
2
Internvl3 1B Instruct
Apache-2.0
InternVL3-1B-InstructはInternVL3シリーズの教師付き微調整バージョンで、ネイティブマルチモーダル事前学習に基づき、優れたマルチモーダル知覚と推論能力を備えています。
画像生成テキスト
Transformers その他

I
OpenGVLab
705
5
Internvl3 78B Instruct
その他
InternVL3-78B-InstructはOpenGVLabが提供する先進的なマルチモーダル大規模言語モデルで、優れたマルチモーダル知覚と推論能力を示し、ツール使用、GUIエージェント、産業画像分析、3D視覚知覚など様々なタスクをサポートします。
画像生成テキスト
Transformers その他

I
OpenGVLab
345
5
Internvl3 8B
その他
InternVL3-8Bは、高度なマルチモーダル大規模言語モデルで、卓越したマルチモーダル感知と推論能力を備え、ツール使用、GUIエージェント、産業用画像分析などの多くの分野で優れた性能を発揮します。
マルチモーダル融合
Transformers その他

I
FriendliAI
167
0
Internvl3 1B
その他
InternVL3-1BはInternVL3シリーズの10億パラメータ規模のマルチモーダル大規模言語モデルで、InternViTビジョンエンコーダーとQwen2.5言語モデルを統合し、優れたマルチモーダル知覚と推論能力を備えています。

I
FriendliAI
71
1
Ola Image
Apache-2.0
Ola-7Bは、テンセント、清華大学、南洋理工大学が共同開発したマルチモーダル言語モデルで、Qwen2.5アーキテクチャを基に、画像、動画、音声、テキストの入力を処理し、テキストを出力することができます。
マルチモーダル融合 複数言語対応
O
THUdyh
61
3
Yi 1.5 34B
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れた性能を発揮します
大規模言語モデル
Transformers

Y
01-ai
404
48
Chinese Llama 2 13b 16k
Apache-2.0
完全な中文LLaMA-2-13B-16Kモデルで、16Kの文脈長をサポートし、直接ロードして推論と全パラメータ訓練を行うことができます。
大規模言語モデル
Transformers 複数言語対応

C
hfl
10.62k
14
Ru Longformer Tiny 16384
ロシア語専用に設計されたミニLongformerモデルで、16384トークンのコンテキスト長をサポートし、rubert-tiny2の重みで初期化されています。ロシア語と英語のテキスト処理に適しています。
大規模言語モデル
Transformers 複数言語対応

R
kazzand
263
22
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98