Llemma 34b
Llemma 34Bは数学分野に特化した言語モデルで、Code Llama 34Bの重みを初期値として使用し、Proof-Pile-2データセットで500億トークン訓練されました。
ダウンロード数 60
リリース時間 : 9/27/2023
モデル概要
Llemmaは数学的推論と計算タスクに特化したオープンな数学言語モデルで、思考連鎖による数学的推論やPython、形式的定理証明器などの数学計算ツールの使用に優れた性能を発揮します。
モデル特徴
数学専門能力
数学分野に特化して最適化されており、数学的推論と計算タスクで優れた性能を発揮
思考連鎖推論
複雑な思考連鎖推論プロセスをサポートし、段階的に数学問題を解決可能
ツール統合
Pythonや形式的定理証明器などの数学計算ツールを使用可能
オープンモデル
オープンライセンスで公開されており、研究や商業利用が可能
モデル能力
数学問題解決
定理証明
数学的推論
思考連鎖推論
Pythonコード生成
形式的証明
使用事例
教育
数学問題解答
学生が様々な数学問題を理解し解決するのを支援
GSM8kなどの数学テストセットで優れた成績
数学指導
段階的な数学問題解決ガイドを提供
思考連鎖推論を通じて解答プロセスを提示
研究
数学定理証明
数学研究者が定理証明を行うのを支援
形式的定理証明器を使用可能
数学計算
複雑な数学計算タスクを実行
Pythonなどの計算ツールをサポート
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98