S

Superthoughts Lite V2 MOE Llama3.2 GGUF

Pinkstackによって開発
Superthoughts Lite v2はLlama-3.2アーキテクチャを基にした軽量な混合専門家(MOE)モデルで、推論タスクに特化し、より高い精度と性能を提供します。
ダウンロード数 119
リリース時間 : 5/6/2025

モデル概要

このモデルはチャット、数学、コード、科学推論タスクに適した軽量な推論モデルです。混合専門家(MOE)アーキテクチャにより効率的な推論を実現し、応答生成時のループ現象を減少させます。

モデル特徴

混合専門家アーキテクチャ
4つの専門家モデル(チャット、数学、コード、科学推論)を含み、各推論時に2つの専門家を活性化させ、タスク固有の性能を向上
効率的な推論
GRPO技術とUnsloth微調整により最適化され、より良い性能と少ないループ現象を提供
構造化思考出力
<think>タグ内で段階的な推論プロセスを生成可能で、透明性と説明可能性を向上
長文脈サポート
131072トークンの文脈長をサポートし、複雑なタスク処理に適している

モデル能力

テキスト生成
数学推論
コード生成
科学推論
対話システム

使用事例

教育
数学問題解答
複雑な数学問題を解決し、段階的な推論プロセスを表示することで学生を支援
学習効率と理解深度の向上
プログラミング学習支援
プログラミング概念を説明しサンプルコードを生成
初心者がプログラミングスキルをより早く習得するのを支援
研究
科学概念説明
複雑な科学概念や理論を説明
研究者が分野横断的な知識を迅速に理解するのを支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase