Pragmaticlm
PragmaticLMはT5をファインチューニングしたモデルで、ユーザーのプロンプトをリファクタリングし、下流の大規模言語モデルの理解能力を向上させるために設計されています。
ダウンロード数 21
リリース時間 : 3/13/2025
モデル概要
このモデルはコンテキストリファクタリング技術によりプロンプトの明瞭性を強化し、大規模言語モデルの入力プロンプトの最適化に適しています。
モデル特徴
プロンプトリファクタリング
ユーザーが入力したプロンプトを最適化・リファクタリングし、より明確で理解しやすくします。
コンテキスト強化
コンテキストリファクタリング技術によりプロンプトの品質を向上させます。
T5ベースのファインチューニング
T5-Baseモデルをファインチューニングしており、T5の強力なテキスト生成能力を継承しています。
モデル能力
テキスト生成
プロンプト最適化
プロンプトリファクタリング
使用事例
自然言語処理
プロンプト最適化
ユーザーが入力したプロンプトを最適化し、下流の大規模言語モデルによる処理に適した形にします。
モデルの理解と生成品質が向上します。
間接リクエスト処理
間接的なリクエストを処理し、より直接的なプロンプトに変換します。
間接リクエストに対するモデルの応答精度が向上します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98