Quietstar 8 Ahead
Mistral-7bモデルをベースに、Quiet-STaR手法を用いて継続的事前学習を行い、各出力トークンを生成する前に8つの思考トークンを生成することで、推論能力を向上させています。
ダウンロード数 239
リリース時間 : 3/18/2024
モデル概要
このモデルはQuiet-STaR手法により大規模言語モデルの推論能力を強化し、複雑な推論を必要とするテキスト生成タスクに適しています。
モデル特徴
Quiet-STaR継続的事前学習
Quiet-STaR手法を用いた継続的事前学習により、モデルの推論能力を強化
思考トークン生成
各出力トークンを生成する前に8つの思考トークンを生成し、推論の質を向上
効率的な推論
Mistral-7bアーキテクチャを基に、効率的な推論速度を維持しながら性能を向上
モデル能力
複雑なテキスト生成
論理的推論
マルチターン対話
知識質問応答
使用事例
教育
数学問題の解答
多段階の推論を必要とする数学問題を解答
ベースモデルに比べてより正確な解答プロセスを提供可能
研究
科学文献の分析
複雑な科学文献の内容を理解・分析
文献中の論理的関係をより良く理解可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98