GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414はTHUDMチームによって開発された大規模言語モデルで、GLMアーキテクチャに基づいており、様々なテキスト生成タスクに適しています。
大規模言語モデル
G
owentruong
36
2
Kanana Nano 2.1b Instruct
KananaはKakaoが開発したバイリンガル(韓国語/英語)言語モデルシリーズで、この2.1Bパラメータ版は韓国語性能で同規模モデルを上回りつつ、効率的な計算コストを維持しています。
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
5,994
59
Dorna2 Llama3.1 8B Instruct
Dorna2-Llama3.1-8B-InstructはPart AIが開発したMeta Llama 3.1 Instructベースの80億パラメータ大規模言語モデルで、ペルシャ語に特化して最適化されています。
大規模言語モデル
Transformers 複数言語対応

D
PartAI
844
16
Daredevil 8B
その他
Daredevil-8BはMMLUスコアを最大化するために設計されたスーパーフュージョンモデルで、2024年5月27日時点でMMLUスコアが最も高いLlama 3 8Bモデルです。
大規模言語モデル
Transformers

D
mlabonne
238
39
E.star.7.b
Apache-2.0
Mistralアーキテクチャに基づく7Bパラメータの大規模言語モデル。UnslothとTRLライブラリを使用した効率的なトレーニングにより、複数のベンチマークテストで優れたパフォーマンスを発揮。
大規模言語モデル
Transformers 英語

E
liminerity
86
2
Misted 7B
Apache-2.0
Misted-7Bは、OpenHermes-2-Mistral-7BとMistral-7B-SlimOrcaを融合した7Bパラメータの大規模言語モデルで、主にテキスト生成タスクに使用されます。
大規模言語モデル
Transformers 英語

M
Walmart-the-bag
386
8
Orca Mini 13b
orca_mini_13b は複数の高品質データセットでトレーニングされたテキスト生成モデルで、命令追従と対話タスクに特化しています。
大規模言語モデル
Transformers 英語

O
pankajmathur
79
100
My QA
hfl/chinese-pert-largeをファインチューニングしたQ&Aモデルで、中国語のQ&Aタスクに適しています
大規模言語モデル
Transformers

M
cgt
25
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98