7

7B

Developed by CausalLM
70億パラメータの因果言語モデルで、Meta LLaMA 2アーキテクチャと互換性があり、複数の評価で同クラスの330億パラメータ以下のモデルを上回る性能を発揮
Downloads 177
Release Time : 10/22/2023

Model Overview

QwenとLLaMA2の重みを使用してトレーニングされた因果言語モデルで、中英テキスト生成タスクをサポートし、LLaMA2と同じモデルアーキテクチャを採用

Model Features

高性能
MMLU、CEval、GSM8Kなどのベンチマークテストで同クラスの7Bモデルを凌駕し、一部の指標では330億パラメータ以下のモデルを上回る
多言語サポート
英語と中国語のテキスト生成を同時にサポート
完全互換性
GGUF、GPTQ、AWQ量子化フォーマットと互換性があり、transformersライブラリで直接ロード可能
合成データトレーニング
13億トークンの精選SFTデータセットを使用し、すべてのデータは人手または合成による書き直しを経ている

Model Capabilities

テキスト生成
マルチターン対話
数学的推論
知識質問応答

Use Cases

対話システム
インテリジェントアシスタント
chatmlフォーマットに基づくマルチターン対話システムの構築
教育
数学問題解答
GSM8Kレベルの数学問題を解決
ゼロショット正解率59.2%
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase