Fpham Sydney Overthinker 13b HF GGUF
このプロジェクトは最適化されたGGUF量子化ファイルを提供し、モデルの性能を大幅に向上させることができます。これらの量子化ファイルはFeatherless AIによってサポートされており、ユーザーは少量の費用を支払うだけで、任意の必要なモデルを実行することができます。
大規模言語モデル
F
featherless-ai-quants
133
1
Cockatiel 13B
VILA-v1.5-13Bを基に開発された動画テキスト生成モデルで、入力動画に対して人間の嗜好に合致した詳細な記述テキストを生成できます。
ビデオ生成テキスト
Transformers

C
Fr0zencr4nE
26
2
Daringmaid 13B
勇敢なメイド-13Bは、より賢く命令に従うことに長けたNoromaidのバージョンで、複数の優れたモデルの特徴を融合して作成されました。
大規模言語モデル
Transformers 英語

D
Kooten
76
15
Stockmark 13b
MIT
Stockmark-13bは約2200億トークンの日本語コーパスを使用してゼロからプリトレーニングされた130億パラメータの大規模言語モデルで、Stockmark Inc.によって開発されました。
大規模言語モデル
Transformers 日本語

S
stockmark
604
37
Xwin LM 13B V0.1 GPTQ
Xwin-LM 13B V0.1はLlama2アーキテクチャに基づく大規模言語モデルで、Xwin-LMチームによって開発されました。このモデルは専門的で詳細かつ礼儀正しい方法でユーザーの質問に答え、対話シナリオに適しています。
大規模言語モデル
Transformers

X
TheBloke
868
18
Undimix V4 13B
UndiMix-v4は13Bパラメータ規模のハイブリッド大規模言語モデルで、情熱的、真面目、遊び心のあるなど多様なスタイル表現能力を統合し、絵文字の使用もサポートしています。
大規模言語モデル
Transformers

U
Undi95
112
5
Mythologic L2 13b
その他
MythoLogic-L2-13BはLlama 2をベースに改良されたモデルで、ロールプレイ能力と複雑な指示の理解に重点を置いています。
大規模言語モデル
Transformers 英語

M
Gryphe
105
23
Ziya LLaMA 13B V1
Gpl-3.0
LLaMaアーキテクチャに基づく130億パラメータの事前学習モデルで、翻訳、プログラミング、テキスト分類、情報抽出、要約生成、コピーライティング、常識的質問応答、数学計算などの能力を備えています
大規模言語モデル
Transformers 複数言語対応

Z
IDEA-CCNL
219
275
Llama 13b
その他
LLaMA-13bはMetaが公開した130億パラメータの大規模言語モデルで、非商用目的のライセンス契約に基づいています。
大規模言語モデル
Transformers

L
huggyllama
7,426
140
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98