Qwen2.5 7B Fuse Exp
これはmergekitツールを使用し、SCEメソッドで複数の7Bパラメータ規模モデルを統合した言語モデルです
大規模言語モデル
Transformers

Q
bunnycore
22
2
Llama 3.1 8B Instuct Uz Q8 0 GGUF
これはLlama-3.1アーキテクチャに基づく8Bパラメータモデルで、ウズベク語と英語の命令理解およびテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
L
azimjon
31
0
Blabbertron 1.2
Qwen2.5-7B-Instructベースモデルを基盤とし、複数の7B規模モデルの強みを融合し、モデルストック法により統合したハイブリッドモデルです。
大規模言語モデル
Transformers

B
bunnycore
39
2
Multilingual E5 Large Instruct Q6 K GGUF
MIT
多言語E5大型命令モデル、100以上の言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
kcccat
27
1
Dolphin3.0 Llama3.2 3B GGUF
Llama3.2アーキテクチャに基づく3Bパラメータの大規模言語モデルで、英文テキスト生成タスクをサポートし、llama.cppを使用したimatrix量子化を採用
大規模言語モデル 英語
D
bartowski
5,665
15
Stockqwen 2.5 7B
Qwen2.5-7Bベースモデルを基に、コード、数学、汎用命令能力を融合した多言語大規模言語モデル
大規模言語モデル
Transformers 複数言語対応

S
Locutusque
24
5
Llama 3 KafkaLM 8B V0.1
KafkaLM 8bはLlama3 8bモデルをファインチューニングしたドイツ語大規模言語モデルで、ドイツ語ビジネスシーンへの応用に特化
大規模言語モデル
Transformers 複数言語対応

L
seedboxai
17
13
Meta Llama 3 70B
MetaがリリースしたLlama 3シリーズの大規模言語モデルで、8Bと70Bの2つの規模の事前学習および命令調整済み生成テキストモデルを含み、対話シナリオに最適化されており、業界ベンチマークで優れた性能を発揮します。
大規模言語モデル
Transformers 英語

M
meta-llama
15.32k
857
Capytessborosyi 34B 200K DARE Ties
その他
これはmergekitのDARE Ties手法でマージされた34Bパラメータの大規模言語モデルで、Yi-34B-200Kアーキテクチャを基盤とし、Nous-Capybara-34B、Tess-M-v1.3、airoboros-3_1-yi-34b-200kの3つのモデルの能力を統合しています。
大規模言語モデル
Transformers 英語

C
brucethemoose
88
16
Agentlm 7b
AgentLM-7BはLlama-2-chatモデルをベースに、AgentInstructデータセットとShareGPTデータセットを混合訓練して得られたエージェント強化型言語モデルです。
大規模言語モデル
Transformers

A
THUDM
196
51
Redpajama INCITE 7B Chat
Apache-2.0
Togetherが複数のAI研究機関と共同開発した69億パラメータの対話専用言語モデル。RedPajama-Data-1Tデータセットで訓練され、OASST1とDolly2データでファインチューニングされ対話能力を強化
大規模言語モデル
Transformers 英語

R
togethercomputer
178
93
Flan Ul2
Apache-2.0
T5アーキテクチャに基づくエンコーダー-デコーダーモデルで、Flanプロンプトチューニングにより最適化され、多言語タスク処理をサポート
大規模言語モデル
Transformers 複数言語対応

F
google
3,350
554
GPT JT 6B V1
Apache-2.0
GPT-JTはGPT-J(6B)をファインチューニングした大規模言語モデルで、UL2訓練目標を採用し、分類タスクで優れた性能を発揮
大規模言語モデル
Transformers 英語

G
togethercomputer
4,299
302
Flan T5 Xxl
Apache-2.0
FLAN-T5はT5を改良した命令ファインチューニング言語モデルで、同じパラメータ数で1000以上の多言語タスクをファインチューニングすることで優れた性能を実現
大規模言語モデル 複数言語対応
F
google
157.41k
1,238
Flan T5 Large
Apache-2.0
FLAN-T5はT5を改良した命令ファインチューニング言語モデルで、60以上の言語をサポートし、同じパラメータ数で1000以上のタスクをファインチューニングすることでより高い性能を実現
大規模言語モデル 複数言語対応
F
google
589.25k
749
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98