# 知識推論

GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414はTHUDMチームによって開発された大規模言語モデルで、GLMアーキテクチャに基づいており、様々なテキスト生成タスクに適しています。
大規模言語モデル
G
owentruong
36
2
Kanana Nano 2.1b Instruct
KananaはKakaoが開発したバイリンガル(韓国語/英語)言語モデルシリーズで、この2.1Bパラメータ版は韓国語性能で同規模モデルを上回りつつ、効率的な計算コストを維持しています。
大規模言語モデル Transformers 複数言語対応
K
kakaocorp
5,994
59
Dorna2 Llama3.1 8B Instruct
Dorna2-Llama3.1-8B-InstructはPart AIが開発したMeta Llama 3.1 Instructベースの80億パラメータ大規模言語モデルで、ペルシャ語に特化して最適化されています。
大規模言語モデル Transformers 複数言語対応
D
PartAI
844
16
Daredevil 8B
その他
Daredevil-8BはMMLUスコアを最大化するために設計されたスーパーフュージョンモデルで、2024年5月27日時点でMMLUスコアが最も高いLlama 3 8Bモデルです。
大規模言語モデル Transformers
D
mlabonne
238
39
E.star.7.b
Apache-2.0
Mistralアーキテクチャに基づく7Bパラメータの大規模言語モデル。UnslothとTRLライブラリを使用した効率的なトレーニングにより、複数のベンチマークテストで優れたパフォーマンスを発揮。
大規模言語モデル Transformers 英語
E
liminerity
86
2
Misted 7B
Apache-2.0
Misted-7Bは、OpenHermes-2-Mistral-7BとMistral-7B-SlimOrcaを融合した7Bパラメータの大規模言語モデルで、主にテキスト生成タスクに使用されます。
大規模言語モデル Transformers 英語
M
Walmart-the-bag
386
8
Orca Mini 13b
orca_mini_13b は複数の高品質データセットでトレーニングされたテキスト生成モデルで、命令追従と対話タスクに特化しています。
大規模言語モデル Transformers 英語
O
pankajmathur
79
100
My QA
hfl/chinese-pert-largeをファインチューニングしたQ&Aモデルで、中国語のQ&Aタスクに適しています
大規模言語モデル Transformers
M
cgt
25
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase