Mt0 Xxl Mt Q4 K M GGUF
このモデルはbigscience/mt0-xxl-mtからllama.cppを使用してGGUF形式に変換された多言語テキスト生成モデルで、さまざまな言語タスクをサポートしています。
ダウンロード数 14
リリース時間 : 1/20/2025
モデル概要
bigscience/mt0-xxl-mtを基にGGUF形式に変換されたモデルで、多言語テキスト生成タスクに特化しており、翻訳、質問応答、感情分析など多様な機能をサポートしています。
モデル特徴
多言語サポート
80以上の言語のテキスト生成タスクをサポートし、翻訳や質問応答などが可能です。
効率的な推論
GGUF形式により最適化され、さまざまなハードウェアで効率的に動作します。
多様なタスク処理
翻訳、感情分析、テキスト補完など、さまざまなテキスト生成タスクを処理できます。
モデル能力
テキスト生成
多言語翻訳
感情分析
質問応答システム
テキスト補完
使用事例
翻訳
モンゴル語から英語への翻訳
モンゴル語のテキストを英語に翻訳
日本語からフランス語への翻訳
日本語の単語をフランス語の説明に翻訳
質問応答
ドイツ語からノルウェー語への質問応答
天文学に関する難しい質問をノルウェー語で行う
英語から英語への質問応答
なぜ空が青いのかを説明する
感情分析
中国語から英語への感情分析
中国語のレビューの感情傾向(ポジティブ、ニュートラル、ネガティブ)を分析
テキスト生成
スペイン語から英語への寓話
トロールが王女を救うスペイン語の童話を生成
ヒンディー語から英語への寓話
森の精霊に関するヒンディー語の寓話を生成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98