# 自然言語生成

Gemma 3 Glitter 27B
Gemma 3 27Bベースのクリエイティブライティングモデルで、27B ITと27B PTを50%ずつ混合。自然で流暢なテキスト表現に優れる
大規模言語モデル Transformers
G
allura-org
112
4
Amoral Gemma3 12B Vision
soob3123/amoral-gemma3-12Bをベースにした視覚強化バージョンで、Gemma3-12B大規模言語モデルと視覚エンコーダーを統合し、マルチモーダルタスクをサポート
画像生成テキスト Transformers 英語
A
gghfez
25
2
Llama 3.3 70B Instruct Quantized.w4a16
Meta-Llama-3.1アーキテクチャに基づく量子化最適化モデルで、多言語をサポートし、商業および研究シーンに適しており、リソース要件を削減しながら高性能を維持します。
大規模言語モデル Transformers 複数言語対応
L
RedHatAI
19.25k
1
Qwen2 VL 7B Captioner Relaxed
Apache-2.0
Qwen2-VL-7B-Instructをベースにした命令調整版で、より詳細な画像記述の生成に特化し、テキストから画像へのデータセット作成に最適化されています。
画像生成テキスト Transformers 英語
Q
Ertugrul
4,080
53
Pastelcomic Flux
MIT
FLUX1-devを基に開発されたLoRaファインチューニングモデルで、ソフトなパステル調の漫画カバー生成に特化
画像生成
P
nerijs
78
2
Internvideo2 Chat 8B
MIT
InternVideo2-Chat-8Bは大規模言語モデル(LLM)と動画BLIPを統合した動画理解モデルで、段階的学習スキームにより構築され、動画の意味理解と人間とのインタラクションが可能です。
ビデオ生成テキスト Transformers 英語
I
OpenGVLab
492
22
Blip Base Captioning Ft Hl Scenes
Apache-2.0
このモデルはBLIPアーキテクチャに基づく画像キャプション生成モデルで、特にシーンの高レベル記述に特化してファインチューニングされています。
画像生成テキスト Transformers 英語
B
michelecafagna26
13
0
Unichart Base 960
Gpl-3.0
UniChartはグラフ理解と推論のための事前学習モデルで、グラフ内のテキスト、データ、視覚要素を処理し、自然言語で出力を生成できます。
テキスト生成画像 Transformers 英語
U
ahmed-masry
1,119
3
Lamini T5 738M
LaMini-T5-738Mはt5-largeをLaMini-instructionデータセットで微調整した命令微調整モデルで、パラメータ数は738M、LaMini-LMシリーズモデルの1つです。
大規模言語モデル Transformers 英語
L
MBZUAI
2,966
49
Lamini Flan T5 783M
LaMini-Flan-T5-783Mはgoogle/flan-t5-largeをLaMini-instructionデータセットでファインチューニングした命令追従モデルで、パラメータ数は783M、LaMini-LMシリーズの一つです。
大規模言語モデル Transformers 英語
L
MBZUAI
2,694
80
Lamini GPT 1.5B
LaMini-GPT-1.5BはGPT-2-xlアーキテクチャをファインチューニングした大規模言語モデルで、LaMini-LMシリーズに属し、命令追従タスクに特化しています
大規模言語モデル Transformers 英語
L
MBZUAI
365
38
Lamini T5 61M
LaMini-T5-61MはT5-smallアーキテクチャをベースに、LaMini-instructionデータセットでファインチューニングされた命令追従モデルで、パラメータ規模は61Mです。
大規模言語モデル Transformers 英語
L
MBZUAI
1,287
18
Lamini Flan T5 248M
LaMini-Flan-T5-248Mはgoogle/flan-t5-baseをLaMini-instructionデータセットでファインチューニングした248Mパラメータのモデルで、LaMini-LMシリーズに属し、自然言語命令への応答に特化しています。
大規模言語モデル Transformers 英語
L
MBZUAI
5,652
76
Bloomz P3
Openrail
BLOOMZ-P3はBLOOM事前学習モデルに基づく多言語コマンドファインチューニングモデルで、数十の言語で人間の指示を理解し実行できます。
大規模言語モデル Transformers 複数言語対応
B
bigscience
39
17
Mvp
Apache-2.0
MVPはTransformerアーキテクチャに基づくマルチタスク教師あり事前学習モデルで、自然言語生成タスク専用に設計されています。
大規模言語モデル Transformers 複数言語対応
M
RUCAIBox
6,146
7
Gpt2 Base Style Paraphraser
GPT2アーキテクチャに基づく教師なしスタイル変換モデルで、言い換え生成によりテキストのスタイル変換を実現します。
テキスト生成 Transformers
G
filco306
64
4
T5 Paraphrase Paws Msrp Opinosis
Apache-2.0
これはT5-baseアーキテクチャに基づく解釈モデルで、PAWS、MSRP、Opinosisデータセットで微調整され、主にテキストの解釈と書き換えタスクに使用されます。
機械翻訳 英語
T
ceshine
77
3
K2t New
MIT
T5ベースのモデルで、入力されたキーワードを流暢な文章に変換します。
テキスト生成 英語
K
gagan3012
264
0
Keytotext Small
T5-smallアーキテクチャに基づくキーワードからテキストを生成するモデルで、入力されたキーワードを首尾一貫した文章に変換できます。
テキスト生成 Transformers
K
gagan3012
20
0
K2t
MIT
T5ベースのモデルで、入力されたキーワードを完全な文章に変換できます。
テキスト生成 Transformers 英語
K
gagan3012
78
3
Randeng MegatronT5 770M
Apache-2.0
自然言語変換タスクを得意とする中国語版T5 - largeモデル
機械翻訳 Transformers 中国語
R
IDEA-CCNL
16
7
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase