# 英語対話生成

Community Request 04.20 12B
その他
これは複数の12Bパラメータ規模のモデルを統合して作成された大規模言語モデルで、テキスト生成と推論タスクに特化しています。
大規模言語モデル Transformers 英語
C
Nitral-AI
94
4
Gryphe Pantheon RP 1.8 24b Small 3.1 GGUF
Apache-2.0
これはGryphe/Pantheon-RP-1.8-24b-Small-3.1モデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、ロールプレイやテキスト生成タスクに適しています。
大規模言語モデル 英語
G
bartowski
6,477
14
Fintech Chatbot T5
T5-smallアーキテクチャをファインチューニングしたフィンテックチャットボットで、銀行業務の問い合わせ専用に設計されています
対話システム 英語
F
cuneytkaya
38
6
Stablebeluga2
Llama2 70Bモデルを微調整した大規模言語モデルで、Orcaスタイルのデータセットで訓練されており、複雑な指示の実行に優れています
大規模言語モデル Transformers 英語
S
petals-team
1.3M
19
H2ogpt Gm Oasst1 En 2048 Open Llama 3b
Apache-2.0
OpenAssistant/oasst1データセットでファインチューニングされた3Bパラメータの大規模言語モデル、H2O LLM Studioでトレーニング
大規模言語モデル Transformers 英語
H
h2oai
139
3
Open Instruct Stanford Alpaca 7b
スタンフォードAlpacaデータセットでファインチューニングされた7BパラメータLLaMaモデル、オープンリソースの命令チューニングに特化
大規模言語モデル Transformers 英語
O
allenai
220
10
H2ogpt Gm Oasst1 En 2048 Open Llama 7b Preview 700bt
Apache-2.0
OpenLlama 7B事前学習モデルを微調整した大規模言語モデルで、OpenAssistantデータセットで訓練され、英語テキスト生成タスクをサポート
大規模言語モデル Transformers 英語
H
h2oai
58
4
Mpt 7b Wizardlm
これはMPT-7Bモデルをベースにファインチューニングされた大規模言語モデルで、WizardLM_alpaca_evol_instruct_70k_unfilteredデータセットを使用してトレーニングされました。
大規模言語モデル Transformers 複数言語対応
M
openaccess-ai-collective
44
21
Alpaca 7b Wdiff
Alpaca-7Bはスタンフォード大学がMetaのLLaMA-7Bモデルをファインチューニングして得た大規模言語モデルで、命令ファインチューニングにより優れた対話とタスク実行能力を実現しています。
大規模言語モデル Transformers
A
tatsu-lab
106
57
Pygmalion 6b 4bit 128g
Openrail
Pygmalion-6Bベースの4ビットGPTQ量子化モデルで、対話生成タスクに適しており、英語テキスト生成をサポート
大規模言語モデル Transformers 英語
P
mayaeary
40
40
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase