# ツール呼び出し統合

Qwen2.5 Wolverine CODER 11B Gguf
Apache-2.0
Qwen2.5-Coder-7BとOlympicCoder-7Bを融合した11BパラメータのコーディングAIモデルで、プログラミングの難問を迅速に解決し、高品質のコードを生成できます。
大規模言語モデル 複数言語対応
Q
DavidAU
252
1
Qwen3 4B GGUF
Apache-2.0
Qwen3-4Bは通義千問シリーズの最新大規模言語モデルで、4Bパラメータ規模を持ち、思考モードと非思考モードの切り替えをサポートし、推論、指示追従、多言語処理に優れています。
大規模言語モデル
Q
QuantFactory
341
1
Dans PersonalityEngine V1.3.0 12b
Apache-2.0
50以上の専門データセットで微調整された多機能モデル、クリエイティブタスクや技術的課題に強く、10言語をサポート
大規模言語モデル Transformers
D
PocketDoc
112
13
Llama 3.1 Nemotron Nano 4B V1.1
その他
Llama-3.1-Nemotron-Nano-4B-v1.1はLlama 3.1を圧縮最適化した大規模言語モデルで、推論と対話タスクに特化し、128Kのコンテキスト長をサポート、単一RTXグラフィックカードに対応しています。
大規模言語モデル Transformers 英語
L
nvidia
5,714
61
Llama 3.1 405B Instruct
Llama 3.1はMetaが開発した多言語大規模言語モデルシリーズで、8B、70B、405Bの3つの規模があり、多言語テキスト生成とコード生成タスクをサポートしています。
大規模言語モデル Transformers 複数言語対応
L
meta-llama
34.83k
569
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
Mistral-Small-3.1-24B-Instruct-2503は24Bパラメータ規模の多言語命令ファインチューニングモデルで、複数の言語とタスクをサポートし、テキスト生成や対話シナリオに適しています。
大規模言語モデル 複数言語対応
M
second-state
1,059
1
Meta Llama 3.1 8B Instruct FP16
Llama 3.1はMetaが開発した多言語大規模言語モデルの集合で、8B、70B、405Bパラメータのバージョンがあり、8言語をサポートし、対話ユースケースに最適化されています。
大規模言語モデル Safetensors 複数言語対応
M
context-labs
565.13k
1
Pixtral Large Instruct 2411
その他
Pixtral-Large-Instruct-2411はMistralAI技術を基にしたマルチモーダル命令微調整モデルで、画像とテキスト入力をサポートし、多言語処理能力を備えています。
画像生成テキスト Transformers 複数言語対応
P
nintwentydo
23
2
Llama 3.3 70B Instruct GGUF
Llama-3.3-70B-InstructはMetaがリリースした多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、複数の業界ベンチマークで優れた性能を発揮します。
大規模言語モデル Transformers 英語
L
unsloth
7,922
65
Llama 3.3 70B Instruct
Meta Llama 3.3は700億パラメータの多言語大規模言語モデルで、多言語対話シナリオ向けに最適化されており、8言語をサポートし、多数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
L
meta-llama
1.1M
2,282
Nemotron Mini 4B Instruct
その他
Nemotron-Mini-4B-InstructはNVIDIAが開発したロールプレイ、検索拡張生成、関数呼び出しに最適化された応答生成モデルで、Minitron-4B-Baseをファインチューニングし、4096トークンのコンテキスト長をサポートします。
大規模言語モデル Transformers 英語
N
nvidia
674
162
Llama 3.1 70B Instruct
Meta Llama 3.1 は80億、700億、4050億パラメータを含む事前学習及び命令調整生成モデル群で、多言語対話シーン向けに最適化され、8言語とコード生成をサポートします。
大規模言語モデル Transformers 複数言語対応
L
meta-llama
1.2M
806
Glm 4 9b
その他
GLM-4-9Bは智譜AIが発表した最新のオープンソース事前学習モデルで、複数のベンチマークテストにおいてLlama-3-8Bを上回り、128Kのコンテキスト長と26言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
G
THUDM
9,944
132
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase