MKLLM 7B Instruct
M
MKLLM 7B Instruct
trajkovnikolaによって開発
MKLLM-7Bはマケドニア語向けのオープンソース大規模言語モデルで、Mistral-7B-v0.1モデルを基にマケドニア語と英語の混合テキストで継続事前学習を行って構築されました。
ダウンロード数 31
リリース時間 : 4/25/2025
モデル概要
MKLLM-7B-InstructはMKLLM-7Bの命令調整バージョンで、chatml対話フォーマットを使用して完全な命令トレーニングを実施し、マケドニア語の理解と処理において優れた性能を発揮します。
モデル特徴
マケドニア語最適化
マケドニア語に特化して最適化されたトレーニングを行い、理解力と生成能力が同類モデルを上回ります
命令調整
chatml対話フォーマットを使用して完全な命令トレーニングを実施し、対話型インタラクションに適しています
多言語サポート
マケドニア語と英語の同時処理をサポート
モデル能力
マケドニア語テキスト生成
英語テキスト生成
対話型インタラクション
命令理解と実行
使用事例
言語処理
マケドニア語Q&Aシステム
マケドニア語ユーザー向けのインテリジェントQ&Aシステム構築
マケドニア語ベンチマークテストでLlama3-8B-InstructとMistral-7B-Instruct-v0.3を上回る性能
多言語対話アシスタント
マケドニア語と英語をサポートする対話アシスタント開発
マケドニア語と英語のコンテンツを流暢に生成可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98