Kanana 1.5 2.1b Base
Apache-2.0
Kanana 1.5はKananaモデルファミリーの新バージョンで、コーディング、数学、関数呼び出し能力が大幅に向上し、32Kトークンの長さをサポートし、128Kトークンまで拡張可能です。
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
757
4
Shisa V2 Qwen2.5 7b
Apache-2.0
Shisa V2はShisa.AIが開発した日英バイリンガル汎用対話モデルで、日本語タスクのパフォーマンス向上に重点を置きつつ、強力な英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

S
shisa-ai
38
2
Minueza 2 96M
Apache-2.0
Llamaアーキテクチャに基づくコンパクトな言語モデルで、英語とポルトガル語をサポート、パラメータ数9600万、4096トークンのコンテキスト長に対応。
大規模言語モデル
Transformers 複数言語対応

M
Felladrin
357
6
Llama Krikri 8B Instruct GGUF
Llama-3.1-8Bをベースに構築されたギリシャ語命令調整大規模言語モデルで、ギリシャ語能力を強化し多言語タスクをサポート
大規模言語モデル
Transformers

L
ilsp
257
11
Multilingual ModernBert Base Preview
MIT
Algomaticチームによって開発された多言語BERTモデルで、マスキングタスクをサポートし、8192のコンテキスト長と151,680の語彙サイズを備えています。
大規模言語モデル
M
makiart
60
4
Rumodernbert Small
Apache-2.0
ロシア版のモダンな単方向・双方向エンコーダーTransformerモデルで、約2兆のロシア語、英語、コードデータのトークンで事前学習され、最大8,192トークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers 複数言語対応

R
deepvk
619
14
Rumodernbert Base
Apache-2.0
現代的な双方向エンコーダー専用Transformerモデルのロシア語版で、約2兆のロシア語、英語、コードトークンで事前学習され、コンテキスト長は8,192トークンに達します。
大規模言語モデル
Transformers 複数言語対応

R
deepvk
2,992
40
L3.3 MS Nevoria 70b
その他
Llama 3.3アーキテクチャに基づく700億パラメータの大規模言語モデルで、複数の優れたモデルコンポーネントを統合することで、ストーリーテリング、シーン描写、散文の詳細描写能力が強化されています
大規模言語モデル
Transformers

L
Steelskull
2,160
79
Vi Qwen2 7B RAG
Apache-2.0
Qwen2-7B-Instructをファインチューニングしたベトナム語RAG専用大規模言語モデル、8192トークンのコンテキスト長をサポート
大規模言語モデル
Transformers その他

V
AITeamVN
737
15
Jais Family 13b
Apache-2.0
Jaisシリーズはアラビア語に最適化されながら強力な英語能力も備えた包括的な英語・アラビア語バイリンガル大規模言語モデルです。このモデルは命令微調整されており、対話シナリオに適しています。
大規模言語モデル 複数言語対応
J
inceptionai
30
6
Jais Family 13b Chat
Apache-2.0
Jaisシリーズはアラビア語に最適化された英語アラビア語バイリンガル大規模言語モデルで、13Bバージョンは130億パラメータを持ち、2048トークンのコンテキスト長をサポートします。
大規模言語モデル
Safetensors 複数言語対応
J
inceptionai
1,240
10
Jais Adapted 13b Chat
Apache-2.0
Jais Adapted 13BはLlama-2アーキテクチャに基づくバイリンガル(アラビア語-英語)大規模言語モデルで、アラビア語能力を強化するための適応型事前学習を実施
大規模言語モデル
Safetensors 複数言語対応
J
inceptionai
4,823
5
Jais Adapted 7b Chat
Apache-2.0
JaisシリーズはLlama-2アーキテクチャに基づくバイリンガル大規模言語モデルで、アラビア語に最適化されながら強力な英語能力を備えています。このモデルは700億パラメータ規模のアラビア語適応版で、4,096トークンのコンテキスト長をサポートします。
大規模言語モデル
Safetensors 複数言語対応
J
inceptionai
736
6
Jais Adapted 70b
Apache-2.0
Jaisシリーズは英語・アラビア語バイリンガル大規模言語モデルのグループで、アラビア語を最適化しながら強力な英語能力を保持し、5.9億から700億パラメータまでの様々な規模のモデルを含みます。
大規模言語モデル 複数言語対応
J
inceptionai
2,579
21
Jais Adapted 70b Chat
Apache-2.0
Jaisシリーズはアラビア語に最適化された英語-アラビア語バイリンガル大規模言語モデルで、Llama-2アーキテクチャを基に適応的事前学習を行い、強力なバイリンガル処理能力を備えています。
大規模言語モデル 複数言語対応
J
inceptionai
5,466
9
Llama 3 Korean Bllossom 70B
Llama3ベースの韓英バイリンガル強化モデル、語彙拡張と知識関連最適化により韓国語能力を向上
大規模言語モデル
Transformers 複数言語対応

L
Bllossom
300
86
Blockchainlabs 7B Merged Test2 4 Prune
alnrg2arg/blockchainlabs_7B_merged_test2_4をベースにしたプルーニング版で、mlabonne/NeuralBeagle14-7Bとudkai/Turdusモデルを融合した70億パラメータの大規模言語モデル
大規模言語モデル
Transformers

B
alnrg2arg
135
2
Leo Hessianai 7B GGUF
LeoLMはLlama-2を基盤に構築された初めてのオープンで商用利用可能なドイツ語基礎言語モデルで、大量のドイツ語テキストによる継続的な事前学習を通じてLlama-2のドイツ語能力を拡張しました。
大規模言語モデル
Transformers 複数言語対応

L
TheBloke
497
4
Open Llm Search
Open LLM SearchはTogether AIのllama-2-7b-32kモデルを特別に適応させたバージョンで、ウェブページからの情報抽出のために構築されています。
大規模言語モデル
Transformers 英語

O
masonbarnes
43
10
Llama 2 7b Chat Hf Function Calling V2
Llama 2はMetaが開発した70億パラメータの対話最適化大規模言語モデルで、このバージョンは関数呼び出し機能を拡張し、構造化JSON形式のレスポンスをサポート
大規模言語モデル 英語
L
Trelis
175
136
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98