Minithinky V2 1B Llama 3.2
MiniThinky 1BはLlama-3.2-1B-InstructをファインチューニングしたAIアシスタントモデルで、回答前に思考プロセスを表示する特徴があります
ダウンロード数 260
リリース時間 : 1/8/2025
モデル概要
これは1Bパラメータ規模の言語モデルで、回答前に思考プロセスを表示するように特別に設計されています。Llama 3と同じチャットテンプレートを使用していますが、思考ステップのマーカー出力が追加されています。
モデル特徴
思考プロセスの可視化
最終的な回答を生成する前に<|thinking|>マーカーで思考プロセスを出力します
システムメッセージへの敏感さ
システムメッセージに非常に敏感で、最適なパフォーマンスを得るには特定の形式のシステムプロンプトが必要です
改良版
v2バージョンはv1と比べて損失値が0.7から0.5に低下し、トレーニング時間が6時間増加しました
モデル能力
対話生成
質問回答
思考プロセス表示
使用事例
AIアシスタント
インテリジェントQA
インテリジェントアシスタントとしてユーザーの質問に答えます
まず思考プロセスを表示してから回答を提供します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98