Q

Quietstar 8 Ahead

ezelikmanによって開発
Mistral-7bモデルをベースに、Quiet-STaR手法を用いて継続的事前学習を行い、各出力トークンを生成する前に8つの思考トークンを生成することで、推論能力を向上させています。
ダウンロード数 239
リリース時間 : 3/18/2024

モデル概要

このモデルはQuiet-STaR手法により大規模言語モデルの推論能力を強化し、複雑な推論を必要とするテキスト生成タスクに適しています。

モデル特徴

Quiet-STaR継続的事前学習
Quiet-STaR手法を用いた継続的事前学習により、モデルの推論能力を強化
思考トークン生成
各出力トークンを生成する前に8つの思考トークンを生成し、推論の質を向上
効率的な推論
Mistral-7bアーキテクチャを基に、効率的な推論速度を維持しながら性能を向上

モデル能力

複雑なテキスト生成
論理的推論
マルチターン対話
知識質問応答

使用事例

教育
数学問題の解答
多段階の推論を必要とする数学問題を解答
ベースモデルに比べてより正確な解答プロセスを提供可能
研究
科学文献の分析
複雑な科学文献の内容を理解・分析
文献中の論理的関係をより良く理解可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase