Luxia 21.4b Alignment V1.2
LUXIA-21.4B-Alignmentは214億パラメータを持つ大規模言語モデルで、様々な自然言語処理タスクで卓越した性能を発揮します。
ダウンロード数 1,839
リリース時間 : 5/27/2024
モデル概要
このモデルは35Bパラメータ以下のモデルの中でトップクラスの性能を示し、72Bパラメータモデルや34Bx2混合専門家モデルを凌駕しています。luxia-21.4b-instructモデルからDPOトレーニングを経て派生しました。
モデル特徴
高性能
35Bパラメータ以下のモデルでトップクラスの性能を発揮し、より大規模なモデルを上回る
先進的なトレーニング手法
教師ありファインチューニング(SFT)や直接選好最適化(DPO)などの最先端技術を採用
高品質なトレーニングデータ
alpaca-gpt4-data、SlimOrcaなど複数の精選データセットを統合
モデル能力
テキスト生成
質問応答システム
自然言語理解
数学的推論
使用事例
教育
数学問題解答
GSM8Kデータセットの数学問題を解答
GSM8K評価で66.94点を獲得
知識質問応答
常識質問
ARCデータセットの常識問題に回答
ARC評価で77.73点を獲得
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98