Sciglm 6B
SciGLMは大学レベルの科学的推論が可能な科学言語モデルで、自己反省的指示アノテーションフレームワークを用いて高品質データセットSciInstructを構築しました。
ダウンロード数 67
リリース時間 : 2/25/2024
モデル概要
SciGLMは科学的推論に特化した大規模言語モデルで、物理学、化学、数学、形式的証明などの分野の複雑な問題を処理できます。その中核的な革新は、科学分野におけるデータ不足の課題を解決する自己反省的指示アノテーションフレームワークの提案です。
モデル特徴
自己反省的指示アノテーションフレームワーク
既存の大規模言語モデルを利用して未アノテーションの科学問題に対して段階的な推論ステップを生成し、自己反省的な批判と改訂プロセスを通じて最適化し、高品質なデータセットを構築します。
多分野科学的推論能力
物理学、化学、数学、形式的証明など複数の科学分野における複雑な問題を処理でき、大学レベルに達しています。
高品質データセットSciInstruct
254,051件のデータを含み、数学、物理学と化学、形式的証明(Lean)などの複数の学科をカバーしています。
モデル能力
科学問題解答
多段階推論
数学計算
物理問題分析
化学問題解答
形式的証明
使用事例
教育
大学科学課程の補助
学生が複雑な科学概念を理解し、科学問題を解決するのを支援します。
学習効率と理解の深さを向上
研究
科学問題の探索
研究者が科学問題の予備的探索と仮説検証を行うのを支援します。
研究プロセスの加速
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98