# 超長文脈理解

Llama 4 Maverick 17B 128E Instruct FP8
その他
Llama 4シリーズのネイティブマルチモーダルAIモデルで、テキストと画像の理解をサポートし、混合エキスパートアーキテクチャを採用し、商業および研究シーンに適しています。
マルチモーダル融合 Transformers 複数言語対応
L
RedHatAI
5,679
1
Llama 4 Maverick 17B 128E Instruct
その他
Llama 4 MaverickはMetaが発表した170億パラメータの混合専門家アーキテクチャ(MoE)マルチモーダルモデルで、12言語と画像理解をサポートし、商業および研究用途に適しています。
マルチモーダル融合 Transformers 複数言語対応
L
RedHatAI
29
1
Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-BaseはQwenシリーズの最新世代の大規模言語モデルで、学習データ、モデルアーキテクチャ、最適化技術などの面で多くの改善があり、より強力な言語処理能力を提供します。
大規模言語モデル Transformers
Q
unsloth
1,822
3
Llama 4 Scout 17B 16E Instruct Bnb 8bit
その他
Llama 4シリーズはMetaが開発したマルチモーダルAIモデルで、テキストと画像のインタラクションをサポートし、混合専門家アーキテクチャ(MoE)を採用しており、テキストと画像理解の分野でリーディング性能を発揮します。
マルチモーダル融合 Transformers 複数言語対応
L
bnb-community
132
1
Meta Llama Llama 4 Maverick 17B 128E Instruct
その他
Llama 4 MaverickはMetaが発表したマルチモーダルAIモデルで、テキストと画像の理解をサポートし、混合専門家アーキテクチャ(MoE)を採用しており、多言語テキストやコード生成タスクで優れた性能を発揮します。
マルチモーダル融合 Transformers 複数言語対応
M
Undi95
35
2
Llama 3.1 Nemotron 8B UltraLong 4M Instruct
Nemotron-UltraLong-8Bは超長文テキストシーケンス処理に特化した言語モデルで、最大400万トークンのコンテキストウィンドウをサポートし、標準ベンチマークテストでも卓越した性能を維持します。
大規模言語モデル Transformers 英語
L
nvidia
4,363
103
Llama 3.1 8B UltraLong 4M Instruct
超長文シーケンス(最大100万、200万、400万トークン対応)処理専用に設計された大規模言語モデルで、標準ベンチマークテストでも卓越した性能を維持
大規模言語モデル Transformers 英語
L
nvidia
264
27
Llama 3.1 Nemotron 8B UltraLong 1M Instruct
超長文シーケンス(最大100万、200万、400万トークン対応)処理専用に設計された大規模言語モデルで、標準ベンチマークテストでも優れた性能を維持
大規模言語モデル Transformers 英語
L
nvidia
4,025
40
Llama 3.1 8B UltraLong 1M Instruct
Nemotron-UltraLong-8Bシリーズは、超長文テキストシーケンスの処理に特化した言語モデルで、最大400万トークンのコンテキストウィンドウをサポートし、卓越した性能を維持します。
大規模言語モデル Transformers 英語
L
nvidia
1,387
26
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase