M

Minillm 0.2B WithWudao

Tongjiliboによって開発
MiniLLMはbert4torchフレームワークで開発された軽量中国語言語モデルで、事前学習から命令ファインチューニングまでの全プロセスをカバーし、基本的な対話能力を備えています
ダウンロード数 127
リリース時間 : 4/25/2025

モデル概要

12層Transformer構造の軽量中国語言語モデルで、事前学習とAlpaca命令ファインチューニングを経ており、基本的な対話シナリオに適しています

モデル特徴

全プロセストレーニング
事前学習→命令ファインチューニング→報酬モデリング→強化学習の全プロセスを完全実装
軽量で効率的
12層Transformer構造で、単一GPU(17GB VRAM)でファインチューニング可能
フレームワーク互換
トレーニングにはbert4torchフレームワークを使用し、推論はtransformersと互換性があります

モデル能力

中国語テキスト生成
基本的な対話インタラクション
命令追従

使用事例

インテリジェントアシスタント
日常的なQ&A
日常生活に関連する質問に答える
常識に基づいた短い回答を生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase