# オープンソース大規模言語モデル

Dots.llm1.inst
MIT
dots.llm1は大規模なMoEモデルで、総パラメータ1420億のうち140億のパラメータを活性化し、性能は最先端のモデルに匹敵します。
大規模言語モデル Transformers 複数言語対応
D
rednote-hilab
440
97
Lucie 7B
Apache-2.0
Lucie-7Bは、LINAGORAとOpenLLM-Franceが共同で構築した70億パラメータの多言語自己回帰型言語モデルで、Llama-3アーキテクチャに基づき、3兆トークンの多言語データで事前学習されています。
大規模言語モデル TensorBoard 複数言語対応
L
OpenLLM-France
1,262
20
Rombos LLM V2.5 Qwen 32b
Apache-2.0
Rombos-LLM-V2.5-Qwen-32bはQwen2.5-32Bを基に継続的に微調整されたモデルで、元の命令モデルと基礎モデルよりも性能が優れています。
大規模言語モデル Transformers
R
rombodawg
4,220
62
Xgen Mm Phi3 Mini Base R V1.5
Apache-2.0
xGen-MMはSalesforce AI Researchによって開発された一連の最新の基礎大規模言語モデル(LMMs)で、BLIPシリーズをベースに改良され、強化機能が組み込まれ、より強力な基礎能力を持っています。
テキスト生成画像 Safetensors 英語
X
Salesforce
830
21
Cambrian 8b
Apache-2.0
カンブリア紀は、視覚を中核に設計されたオープンソースのマルチモーダルLLM(大規模言語モデル)です。
テキスト生成画像 Transformers
C
nyu-visionx
565
63
UCCIX Llama2 13B Instruct
Apache-2.0
UCCIX-Llama2-13B-InstructはLlama 2-13Bアーキテクチャを基に開発されたアイルランド語-英語バイリンガル大規模言語モデルで、特にアイルランド語処理能力が最適化されています。
大規模言語モデル Transformers 複数言語対応
U
ReliableAI
21
2
Boomer 634m
Apache-2.0
boomer-634mは6.34億のパラメータを持つ大規模言語モデルで、120億トークンのカスタム合成データセットを使用してゼロから事前学習されています。
大規模言語モデル Transformers 英語
B
budecosystem
74
1
Fusellm 7B
Apache-2.0
FuseLLM-7Bは複数のオープンソース大規模言語モデルの知識を融合した統合モデルで、知識融合技術により異なるアーキテクチャのLLM能力を1つのモデルに統合しています。
大規模言語モデル Transformers 複数言語対応
F
Wanfq
45
22
Yi 6B Chat
Apache-2.0
Yi-34B-Chatは01.AIによって開発されたバイリンガル大規模言語モデルで、言語理解、一般常識推論、および読解力に優れ、中国語と英語の双方向対話をサポートしています。
大規模言語モデル Transformers
Y
01-ai
36.75k
66
Yi 6B
Apache-2.0
Yi-34B-Chatは01.AIによって開発されたバイリンガル大規模言語モデルで、AlpacaEvalランキングではGPT-4 Turboに次ぐ優れた性能を示しています。
大規模言語モデル Transformers
Y
01-ai
17.03k
372
Speechless Llama2 Luban Orca Platypus 13b
本モデルはAIDC-ai-business/Luban-13BとOpen-Orca/OpenOrca-Platypus2-13Bを統合したもので、Llama 2アーキテクチャに基づく130億パラメータの大規模言語モデルです。
大規模言語モデル Transformers 英語
S
uukuguy
94
4
Sqlcoder
その他
Defog SQLCoderは現在最も先進的な自然言語からSQLクエリへの変換を行う大規模言語モデルで、GPT-3.5-turboや他の主要なオープンソースモデルよりも優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
S
defog
1,330
319
Rwkv Raven 7b
RWKVはRNNとTransformerの長所を結合した再帰型ニューラルネットワークで、高性能、高速推論、メモリ節約などの特徴があり、無限コンテキスト長をサポートします。
大規模言語モデル Transformers
R
RWKV
699
19
Moss Moon 003 Base
MOSSは、オープンソースでプラグイン拡張をサポートする対話型言語モデルで、复旦大学によって開発されました。複数の言語を理解し、多輪対話で指令に従い、不適切な要求を拒否することができます。
大規模言語モデル Transformers 複数言語対応
M
fnlp
101
131
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase