M

Minueza 32M Base

Felladrinによって開発
Minueza-32M-Baseは3200万パラメータを持つベースモデルで、大量の英語テキストコーパスに基づいて完全に訓練されており、テキスト生成タスクに適しています。
ダウンロード数 68
リリース時間 : 2/25/2024

モデル概要

このモデルは基本的な事前学習モデルで、主にテキスト生成タスクに使用され、微調整によりさまざまな具体的なアプリケーションシナリオに適応できます。

モデル特徴

軽量設計
3200万パラメータのコンパクト設計で、GPUなしデバイスでの高速実行に適しています
モバイル対応
Transformers.jsを使用してモバイルブラウザで実行可能
ChatMLフォーマット対応
ChatMLフォーマットをサポートする特殊トークンを含み、対話モデルの微調整が容易です
複数データセット学習
9つの高品質データセットを交互にサンプリングして学習し、トレーニングコーパスは約6.5億トークンです

モデル能力

テキスト生成
基本的な言語理解
指示追従(微調整が必要)
対話生成(微調整が必要)

使用事例

ゲームコンテンツ生成
ファンタジーワールド設定生成
ファンタジーゲームの世界観、キャラクター設定などの背景コンテンツを生成
一貫性のあるファンタジーワールドの記述を生成可能
教育コンテンツ生成
教材コンテンツ生成
オープン教材データに基づいて教育関連コンテンツを生成
環境保護コンテンツ生成
廃棄物管理アドバイス
廃棄物削減のための実用的なアドバイスを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase