Schreiber Mistral Nemo 12B
Schreiber-mistral-nemo-12Bは、mistral-nemo-kartoffel-12Bをベースに微調整された大規模言語モデルで、より強力で正確な言語処理能力を提供することに特化しています。
Downloads 107
Release Time : 6/6/2025
Model Overview
このモデルは複数のデータセットで微調整されており、複雑な言語タスクを処理でき、テキスト生成や対話システムなどのアプリケーションシーンに適しています。
Model Features
多データセット微調整
複数の高品質データセットで微調整することで、モデルの汎化能力と精度が向上しました。
ORPO最適化
ORPO方法を使用して最適化し、モデルの性能を向上させました。
QLoRA設定
QLoRA技術を採用して効率的な微調整を行い、計算リソースの要件を削減しました。
Model Capabilities
テキスト生成
言語理解
対話システム
Use Cases
テキスト生成
小説創作
モデルを利用して高品質の小説テキストを生成します。
流暢で首尾一貫した物語の情節を生成します。
内容要約
長文に対して要約を生成します。
簡潔で正確な要約内容を生成します。
対話システム
スマート客服
スマート客服システムの構築に使用し、ユーザーの質問に回答します。
正確で自然な回答を提供します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98