Esotericknowledge 24B
これは24Bパラメータ規模の統合言語モデルで、TIESメソッドを用いて複数の24B規模の事前学習モデルを融合し、高品質なテキスト生成と理解能力を提供することに特化しています。
大規模言語モデル
Transformers

E
yamatazen
122
4
Darkest Muse V1 Lorablated V2
これはmergekitツールを使用してDarkest-muse-v1とgemma-2-9b-it-abliterated-LoRA-untiedモデルをタスク算術融合した成果です
大規模言語モデル
Transformers

D
nerdigent
152
4
Dazzling Star Aurora 32b V0.0 Experimental 1130
Qwen2.5-32Bをベースとした融合モデルで、TIES技術を用いて複数の32Bパラメータ規模のモデルを統合し、優れたテキスト生成と理解能力を備えています。
大規模言語モデル
Transformers

D
LyraNovaHeart
36
5
L3 SthenoMaidBlackroot 8B V1
これはmergekitツールを使用してマージされた8Bパラメータ規模の言語モデルで、Sao10K/L3-8B-Stheno-v3.2をベースモデルとして、Jamet-8B-L3とLlama-3-Lumimaid-8Bの特性を融合させています
大規模言語モデル
Transformers

L
bluuwhale
163
25
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98