Community Request 04.20 12B
その他
これは複数の12Bパラメータ規模のモデルを統合して作成された大規模言語モデルで、テキスト生成と推論タスクに特化しています。
大規模言語モデル
Transformers 英語

C
Nitral-AI
94
4
Gryphe Pantheon RP 1.8 24b Small 3.1 GGUF
Apache-2.0
これはGryphe/Pantheon-RP-1.8-24b-Small-3.1モデルを基にした量子化バージョンで、llama.cppを使用して量子化されており、ロールプレイやテキスト生成タスクに適しています。
大規模言語モデル 英語
G
bartowski
6,477
14
Fintech Chatbot T5
T5-smallアーキテクチャをファインチューニングしたフィンテックチャットボットで、銀行業務の問い合わせ専用に設計されています
対話システム 英語
F
cuneytkaya
38
6
Stablebeluga2
Llama2 70Bモデルを微調整した大規模言語モデルで、Orcaスタイルのデータセットで訓練されており、複雑な指示の実行に優れています
大規模言語モデル
Transformers 英語

S
petals-team
1.3M
19
H2ogpt Gm Oasst1 En 2048 Open Llama 3b
Apache-2.0
OpenAssistant/oasst1データセットでファインチューニングされた3Bパラメータの大規模言語モデル、H2O LLM Studioでトレーニング
大規模言語モデル
Transformers 英語

H
h2oai
139
3
Open Instruct Stanford Alpaca 7b
スタンフォードAlpacaデータセットでファインチューニングされた7BパラメータLLaMaモデル、オープンリソースの命令チューニングに特化
大規模言語モデル
Transformers 英語

O
allenai
220
10
H2ogpt Gm Oasst1 En 2048 Open Llama 7b Preview 700bt
Apache-2.0
OpenLlama 7B事前学習モデルを微調整した大規模言語モデルで、OpenAssistantデータセットで訓練され、英語テキスト生成タスクをサポート
大規模言語モデル
Transformers 英語

H
h2oai
58
4
Mpt 7b Wizardlm
これはMPT-7Bモデルをベースにファインチューニングされた大規模言語モデルで、WizardLM_alpaca_evol_instruct_70k_unfilteredデータセットを使用してトレーニングされました。
大規模言語モデル
Transformers 複数言語対応

M
openaccess-ai-collective
44
21
Alpaca 7b Wdiff
Alpaca-7Bはスタンフォード大学がMetaのLLaMA-7Bモデルをファインチューニングして得た大規模言語モデルで、命令ファインチューニングにより優れた対話とタスク実行能力を実現しています。
大規模言語モデル
Transformers

A
tatsu-lab
106
57
Pygmalion 6b 4bit 128g
Openrail
Pygmalion-6Bベースの4ビットGPTQ量子化モデルで、対話生成タスクに適しており、英語テキスト生成をサポート
大規模言語モデル
Transformers 英語

P
mayaeary
40
40
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98