Fluentlylm Prinum GGUF
FluentlyLM-Prinumは多言語対応の大規模言語モデルで、テキスト生成タスクに適しており、複数の言語とコード処理をサポートします。
大規模言語モデル
Transformers Supports Multiple LanguagesOpen Source License:MIT#多言語テキスト生成#数学的推論の強化#ゼロサンプル指令追従

Downloads 152
Release Time : 3/6/2025
Model Overview
FluentlyLM-PrinumはGGUF形式に基づく大規模言語モデルで、英語、フランス語、スペイン語、ロシア語、中国語、日本語、ペルシャ語などの複数の言語をサポートし、幅広いテキスト生成タスクに適しています。
Model Features
多言語サポート
英語、フランス語、スペイン語、ロシア語、中国語、日本語、ペルシャ語などの複数の言語をサポートし、国際化アプリケーションシナリオに適しています。
幅広いアプリケーションシナリオ
テキスト生成タスクに適しており、IFEval、BBH、MATH Lvl 5などの複数のデータセットで評価結果があります。
GGUF形式と互換性がある
モデルファイルはGGUF形式を採用しており、llama.cppと互換性があり、デプロイと使用が容易です。
Model Capabilities
テキスト生成
多言語処理
コード処理
Use Cases
テキスト生成
多言語テキスト生成
複数の言語のテキスト内容を生成し、国際化アプリケーションに適しています。
コード生成
コード断片を生成し、開発作業を支援します。
教育
数学問題の解答
数学問題を解答し、教育支援ツールに適しています。
MATH Lvl 5データセットでの正確一致率は54.0です。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98