Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100Bは日本語能力に特化した1000億パラメータの大規模言語モデルで、1.5兆トークンの多言語データで事前学習され、日本語合成データにより指示追従能力が強化されています。
大規模言語モデル
Transformers 複数言語対応

S
stockmark
1,004
9
Llama 3 Youko 8b
Meta-Llama-3-8Bを基に、日本語と英語の混合データセットで220億トークンの継続事前学習を行った日本語最適化モデル
大規模言語モデル
Transformers 複数言語対応

L
rinna
1,249
60
Bangla Llama 7b Instruct V0.1
LLaMA-2アーキテクチャを基に最適化された70億パラメータのベンガル語大規模言語モデル、指示追従タスクをサポート
大規模言語モデル
Transformers 複数言語対応

B
BanglaLLM
32
5
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1はMistralアーキテクチャに基づく7Bパラメータのドイツ語言語モデルで、ドイツ語と英語をサポートし、Apache-2.0ライセンスで公開されています。
大規模言語モデル
Transformers 複数言語対応

D
TheBloke
81
4
Swiss German Xlm Roberta Base
このモデルはxlm-roberta-baseを基に、スイスドイツ語テキストデータで継続事前学習と微調整を行った多言語モデルで、スイスドイツ語と標準ドイツ語の処理をサポートします。
大規模言語モデル
Transformers その他

S
ZurichNLP
17
2
Openhathi 7B Hi V0.1 Base
OpenHathiシリーズの最初のモデルで、Llama2アーキテクチャに基づき、ヒンディー語、英語、および混合言語をサポートし、70億のパラメータを有しています。
大規模言語モデル その他
O
sarvamai
655
112
Vietnamese Llama2 7b 40GB
その他
Llama2-chat 7Bをベースにしたベトナム語最適化モデル。増分事前トレーニングと効率的なトークナイザーによりベトナム語処理能力を大幅に向上
大規模言語モデル
Transformers 複数言語対応

V
bkai-foundation-models
23
40
Koalpaca Llama 1 7b
Apache-2.0
KoAlpacaはスタンフォード大学のAlpacaモデルを基にした韓国語版で、LLAMAアーキテクチャとPolyglot-ko技術を組み合わせ、韓国語テキスト生成タスクに最適化されています。
大規模言語モデル
Transformers 複数言語対応

K
beomi
213
28
Byt5 Korean Base
Apache-2.0
ByT5-韓国語はGoogleのByT5の韓国語カスタマイズ拡張版で、特に韓国語の音節エンコーディング処理を最適化しています。
大規模言語モデル
Transformers

B
everdoubling
55
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98