M

Mindllm 1b3 Chat Zh V2.0

bit-dnyによって開発
MindLLM 1.3Bは北京市大規模言語情報処理・クラウドコンピューティング応用技術研究センターと北京理工大学東南情報技術研究院が共同開発した13億パラメータのTransformerモデルで、中英対話生成をサポートしています。
ダウンロード数 122
リリース時間 : 12/17/2023

モデル概要

Pile、悟道、CBookなどのバイリンガルデータセット及び安全教育関連ウェブデータに基づいて訓練された軽量化大規模言語モデルで、常識推論と言語理解において優れた性能を発揮します。

モデル特徴

軽量化設計
13億パラメータ規模でありながら、一部130億パラメータモデルを超える性能を実現
バイリンガルサポート
中国語と英語の対話生成タスクを同時にサポート
分野適応性
安全教育などの垂直分野データを含む訓練により、専門的なシーンでの応用に適しています

モデル能力

テキスト生成
マルチターン対話
常識推論
言語理解

使用事例

インテリジェントアシスタント
Q&Aシステム
ユーザーからの電気自動車の利点など常識的な質問に回答
構造化された利点リストを生成(ゼロエミッション、低メンテナンスコストなど)
教育応用
安全教育
訓練データ中の安全教育コンテンツに基づく知識Q&A
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase