Pragmaticlm
Apache-2.0
PragmaticLMはT5をファインチューニングしたモデルで、ユーザーのプロンプトをリファクタリングし、下流の大規模言語モデルの理解能力を向上させるために設計されています。
大規模言語モデル
Transformers 英語

P
aliMohammad16
21
1
T5 Flan Prompt Enhance
Apache-2.0
Flan-T5-Smallをファインチューニングした専用モデルで、プロンプト、タイトル、注釈テキストの最適化に使用され、テキストの品質と豊富さを向上させます。
テキスト生成
Transformers 複数言語対応

T
prithivMLmods
188
3
Flux Mandala LoRA
Apache-2.0
FLUX.1-devを基にしたLoRAモデルで、テキストから画像を生成するタスクに特化しており、特にマンダラ描画スタイルの画像生成に適しています。
テキスト生成画像 英語
F
gokaygokay
18
8
Sharecaptioner Video
GPT4Vアノテーションデータでファインチューニングされたオープンソースのビデオ記述ジェネレーターで、異なる長さ、アスペクト比、解像度のビデオをサポート
ビデオ生成テキスト
Transformers

S
Lin-Chen
264
17
BPO
BPOは大規模言語モデルのトレーニング不要なブラックボックスアライメント技術で、ユーザー入力プロンプトを最適化することでモデル出力品質を改善します。
大規模言語モデル
Transformers 英語

B
THUDM
155
21
Hassanblend1.4
Openrail
HassanBlend1.4はHassanによって開発された安定拡散モデルで、テキストから画像を生成するタスクに特化し、高品質な画像生成能力を提供します。
画像生成
H
hassanblend
1,298
438
Sd Naruto Diffusers
ナルトスタイルにファインチューニングされた安定拡散モデルで、入力テキストをナルトスタイルの画像に変換できます
画像生成 英語
S
lambdalabs
115
57
Mvp Multi Task
Apache-2.0
MVPマルチタスクモデルはプロンプトベースの事前学習モデルで、混合アノテーションデータセットによる最適化を経ており、様々な自然言語生成タスク向けに設計されています。
大規模言語モデル
Transformers 複数言語対応

M
RUCAIBox
20
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98