UNA SimpleSmaug 34b V1beta
Smaug-34Bをベースにした教師あり微調整モデルで、数学と推論能力の向上に焦点を当て、34B規模のモデルの中で優れた性能を発揮します。
ダウンロード数 18
リリース時間 : 2/5/2024
モデル概要
このモデルはSmaug-34B-v0.1をベースに教師あり微調整(SFT)を施したバリアントで、簡単な数学データセットのトレーニングを通じて数学と推論能力を向上させつつ、オリジナルモデルの性能を保持しています。オープンLLMランキングで優れた成績を収め、34B規模モデルのリーダーです。
モデル特徴
数学能力の向上
簡単な数学データセットによる教師あり微調整により、数学と推論能力が大幅に向上しました。
34B規模のリーダー
34Bパラメータ規模のモデルの中で優れた性能を発揮し、オープンLLMランキングスコア77.41を獲得しました。
アテンションレイヤーの最適化
アテンションレイヤーのみにUNA技術を適用し、MLPレイヤーは変更せず、オリジナルモデルのコア能力を保持しています。
モデル能力
テキスト生成
数学推論
論理的推論
質問応答システム
使用事例
教育
数学問題の解答
算術、代数など様々な数学問題を解答します。
GSM8kデータセット正解率72.48%
評価テスト
標準テスト評価
AI2推論チャレンジ、MMLUなどの標準テスト評価に使用されます。
AI2推論チャレンジ74.57点、MMLU 76.68点
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98