Qwq 32B ArliAI RpR V4
Apache-2.0
QwQ-32B-ArliAI-RpR-v4はArliAIが提供する高性能なロールプレイとクリエイティブライティング向けモデルで、QwQ-32Bをファインチューニングし、反復を減らし創造的な出力を向上させることに重点を置いています。
大規模言語モデル
Transformers 英語

Q
ArliAI
240
16
L3.3 GeneticLemonade Unleashed V3 70B
これはLlama 3.3ベースの700億パラメータ大規模言語モデルで、SFT+DPOファインチューニングを経ており、キャラクター駆動の対話とクリエイティブコンテンツ生成に特化しています
大規模言語モデル
Transformers

L
zerofata
119
5
Veiled Calla 12B Gguf
Apache-2.0
サスペンスストーリーテリングと雰囲気作りに特化した没入型ロールプレイングモデル。微妙な感情と神秘的なプロットで物語を展開させるのが得意。
大規模言語モデル 英語
V
soob3123
2,891
8
Gemma 3 Starshine 12B Alt
Gemma 3 12B ITとPTの微調整を統合したクリエイティブライティングモデルで、ロールプレイ最適化バージョン。異なる役割をより明確に区別でき、アイデンティティの混乱を軽減します。
大規模言語モデル
Transformers

G
ToastyPigeon
143
8
Gemma 3 Starshine 12B
Gemma 3 12B ITとGemma 3 12B PTをファインチューニングして統合したクリエイティブライティングモデルで、ストーリー作成とシーン描写に特化
大規模言語モデル
Transformers

G
ToastyPigeon
329
13
Toastypigeon Gemma 3 Starshine 12B GGUF
Gemma 3 12Bベースのクリエイティブライティングモデルで、物語叙述とシーン構築に優れ、小説的な文体が特徴
大規模言語モデル 英語
T
ArtusDev
223
2
L3.3 70B Euryale V2.3
Llama 3.3 Instructをベースに訓練された700億パラメータの大規模言語モデルで、対話生成とクリエイティブコンテンツ作成に特化
大規模言語モデル
Transformers

L
Sao10K
1,274
69
Llama 3 Spicy 8B
mergekitツールを使用して統合された事前学習済み言語モデルで、複数のLlama-3バリエーションモデルの特徴を融合
大規模言語モデル
Transformers

L
nbeerbower
14
1
Holosumika 7B Test
HoloSumika-7Bテスト版は、LazyMergekitを使用してErosumika-7B-v3-0.2とMistral-7B-Holodeck-1の2つのモデルを統合した大規模言語モデルです
大規模言語モデル
Transformers

H
son-of-man
19
1
Midnight Miqu 70B V1.0
その他
SLERP融合技術を用いてmiqu-1-70b-sfとMidnight-Rose-70Bの強みを組み合わせた70Bパラメータの大規模言語モデル。ロールプレイとストーリー創作に最適化
大規模言語モデル
Transformers

M
sophosympatheia
393
62
Llama 68M Chat V1
Apache-2.0
6800万パラメータのLlamaチャットモデルで、JackFram/llama-68mをファインチューニングしており、様々な対話タスクをサポートします。
大規模言語モデル
Transformers 英語

L
Felladrin
2,549
13
Nethena 20B GPTQ
Nethena-20BはNeverSleepによって開発された200億パラメータの大規模言語モデルで、ロールプレイ、感情的なインタラクション、および一般的な用途に適しています。
大規模言語モデル
Transformers

N
TheBloke
29
7
Llama2 13B Tiefighter GPTQ
Tiefighterは、既存の成熟したマージモデルを基に、2つの異なるLoRAを統合して実現した13Bパラメータの大規模言語モデルで、クリエイティブライティングとロールプレイングに優れています。
大規模言語モデル
Transformers

L
TheBloke
94
33
Storytime 13B GPTQ
Storytime 13B はLLaMAアーキテクチャに基づく大規模言語モデルで、中国語テキスト生成タスク、特にストーリー作成に特化しています。
大規模言語モデル
Transformers 英語

S
TheBloke
134
37
Llama 7b Ru Turbo Alpaca Lora Merged
ru_turbo_alpaca はAlpacaモデルを微調整したロシア語テキスト生成モデルで、ロシア語テキスト生成タスクに適しています。
大規模言語モデル
Transformers その他

L
IlyaGusev
50
10
Papugapt2 Finetuned Wierszyki
papuGaPT2モデルを基にファインチューニングした詩生成モデル
大規模言語モデル
Transformers

P
dkleczek
15
0
Gorillaz
ストリートファイターバンドの歌詞を基に訓練されたAIモデルで、バンドのスタイルに似た歌詞テキストを生成できます。
大規模言語モデル 英語
G
huggingartists
18
0
GPT2 Prompt
GPT - 2アーキテクチャに基づく短編物語生成モデルで、ユーザーが入力したプロンプトに基づいて首尾一貫した物語内容を生成します。
テキスト生成 英語
G
Masdfasdg
893
11
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98