7

7B

CausalLMによって開発
70億パラメータの因果言語モデルで、Meta LLaMA 2アーキテクチャと互換性があり、複数の評価で同クラスの330億パラメータ以下のモデルを上回る性能を発揮
ダウンロード数 177
リリース時間 : 10/22/2023

モデル概要

QwenとLLaMA2の重みを使用してトレーニングされた因果言語モデルで、中英テキスト生成タスクをサポートし、LLaMA2と同じモデルアーキテクチャを採用

モデル特徴

高性能
MMLU、CEval、GSM8Kなどのベンチマークテストで同クラスの7Bモデルを凌駕し、一部の指標では330億パラメータ以下のモデルを上回る
多言語サポート
英語と中国語のテキスト生成を同時にサポート
完全互換性
GGUF、GPTQ、AWQ量子化フォーマットと互換性があり、transformersライブラリで直接ロード可能
合成データトレーニング
13億トークンの精選SFTデータセットを使用し、すべてのデータは人手または合成による書き直しを経ている

モデル能力

テキスト生成
マルチターン対話
数学的推論
知識質問応答

使用事例

対話システム
インテリジェントアシスタント
chatmlフォーマットに基づくマルチターン対話システムの構築
教育
数学問題解答
GSM8Kレベルの数学問題を解決
ゼロショット正解率59.2%
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase