Llm Jp 3.1 1.8b
Apache-2.0
LLM-jp-3.1-1.8bは日本国立情報学研究所によって開発された大規模言語モデルで、LLM-jp-3シリーズに基づき、指令事前学習を組み込んで指令遵守能力を強化しています。
大規模言語モデル
Transformers 複数言語対応

L
llm-jp
572
1
Shisa V2 Llama3.3 70b
Shisa V2はShisa.AIが訓練したバイリンガル(日本語/英語)汎用チャットモデルシリーズで、Llama-3.3-70B-Instructを基に最適化され、日本語タスクの性能向上に注力しながら英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

S
shisa-ai
144
2
Shisa V2 Mistral Nemo 12b
Apache-2.0
Shisa V2はShisa.AIによってトレーニングされたバイリンガル(日本語/英語)汎用チャットモデルで、日本語タスクの最適化に重点を置きながら英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

S
shisa-ai
53
2
Shisa V2 Unphi4 14b
Apache-2.0
Shisa V2はShisa.AIによって訓練されたバイリンガル(日本語/英語)汎用チャットモデルで、日本語タスク能力の向上に注力しながら強力な英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

S
shisa-ai
62
3
Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100Bは日本語能力に特化した1000億パラメータの大規模言語モデルで、1.5兆トークンの多言語データで事前学習され、日本語合成データにより指示追従能力が強化されています。
大規模言語モデル
Transformers 複数言語対応

S
stockmark
1,004
9
Anime Whisper
MIT
日本のアニメスタイルの演技台詞分野に特化した日本語音声認識モデル
音声認識
Transformers 日本語

A
litagin
4,873
72
EZO Llama 3.2 3B Instruct Dpoe
Meta AIのLlama 3.2をベースに微調整された日本語最適化モデルで、多言語テキスト生成をサポートします。
大規模言語モデル
Transformers 複数言語対応

E
AXCXEPT
1,561
7
Llama 3 Swallow 8B Instruct V0.1
Meta Llama 3をベースに構築された日本語最適化大規模言語モデルで、継続的事前学習により日本語能力を強化し、教師付き微調整により指令追従能力を向上させました。
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
13.88k
20
Llama 3 ELYZA JP 8B
ELYZA社が訓練した大規模言語モデルで、Meta-Llama-3-8B-Instructを基に日本語能力を強化
大規模言語モデル
Transformers 複数言語対応

L
elyza
13.52k
113
Sarashina2 13b
MIT
SB Intuitions社が訓練した大規模言語モデルで、日本語と英語をサポートし、Llama2アーキテクチャに基づいています
大規模言語モデル
Transformers 複数言語対応

S
sbintuitions
1,167
17
Shisa V1 Llama3 8b
Meta-Llama-3-8B-Instructをファインチューニングした日本語最適化大規模言語モデルで、複数の日本語ベンチマークテストで優れた性能を発揮
大規模言語モデル
Transformers

S
shisa-ai
28
6
Llama 3 Swallow 8B V0.1
Meta Llama 3をベースに構築された日本語強化大規模言語モデル。継続的な事前学習と指示微調整により日本語処理能力を向上
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
2,230
10
Fugaku LLM 13B Instruct
その他
Fugaku-LLMはスーパーコンピュータ'富岳'を完全利用してゼロから事前学習された国産モデルで、日本語を主な訓練データとしており、日本語処理において卓越した性能を発揮
大規模言語モデル
Transformers 複数言語対応

F
Fugaku-LLM
320
28
Llama 3 Youko 8b
Meta-Llama-3-8Bを基に、日本語と英語の混合データセットで220億トークンの継続事前学習を行った日本語最適化モデル
大規模言語モデル
Transformers 複数言語対応

L
rinna
1,249
60
Fugaku LLM 13B
その他
Fugaku-LLMはスーパーコンピュータ'富岳'を使用してゼロから事前学習された日本製の大規模言語モデルで、高い透明性と安全性を備え、特に日本語の表現に優れています
大規模言語モデル
Transformers 複数言語対応

F
Fugaku-LLM
25
123
Honyaku 7b V2
Apache-2.0
Honyaku-7b-v2は前世代モデルの改良版で、多言語生成タグの遵守精度が向上しています。
機械翻訳
Transformers

H
aixsatoshi
17
4
Swallow MS 7b Instruct V0.1
Apache-2.0
Mistral-7B-v0.1を基に継続事前学習を行った日本語強化大規模言語モデル
大規模言語モデル
Transformers 複数言語対応

S
tokyotech-llm
48
14
Rakutenai 7B Chat
Apache-2.0
RakutenAI-7B-chatは楽天グループが開発した日本語大規模言語モデルで、日本語理解ベンチマークテストで優れた性能を発揮し、英語タスクもサポートしています。Mistral-7Bアーキテクチャを基に語彙表を拡張し日本語処理を最適化しました。
大規模言語モデル
Transformers 複数言語対応

R
Rakuten
3,702
62
Whisper Large V3 Japanese 4k Steps Ct2
MIT
これはOpenAI Whisper large-v3モデルのCTranslate2変換バージョンで、特に日本語に対して4000ステップの追加トレーニングを行い、多言語音声認識をサポートしています。
音声認識 複数言語対応
W
JhonVanced
54
4
Faster Whisper Large V3 Ja
MIT
OpenAI Whisper large-v3をベースにした日本語最適化バージョン、多言語音声認識をサポート
音声認識 複数言語対応
F
JhonVanced
46
3
Japanese E5 Mistral 7b Slerp
MIT
E5 Mistral 7B InstructとJapanese StableLM Base Gamma 7Bを統合して作成された日本語テキスト埋め込みモデルで、文の類似度タスクに特化
テキスト埋め込み
Transformers 日本語

J
oshizo
94
7
ELYZA Japanese Llama 2 13b Fast Instruct
Llama 2をベースにした日本語最適化モデルで、日本語の対話体験を向上させるために設計されています。
大規模言語モデル
Transformers 複数言語対応

E
elyza
1,109
23
ELYZA Japanese Llama 2 13b Instruct
ELYZA-japanese-Llama-2-13bはLlama 2をベースに追加の事前学習を行い、日本語能力を拡張したモデルです。
大規模言語モデル
Transformers 複数言語対応

E
elyza
1,022
40
Japanese Clip Vit B 32 Roberta Base
日本語版CLIPモデルで、日本語テキストと画像を同じ埋め込み空間にマッピングでき、ゼロショット画像分類、テキスト-画像検索などのタスクに適しています。
テキスト生成画像
Transformers 日本語

J
recruit-jp
384
9
Nekomata 14b
その他
Qwen-14Bを基に日本語と英語の混合データセットで継続事前訓練を行った大規模言語モデルで、日本語タスクの性能が大幅に向上
大規模言語モデル
Transformers 複数言語対応

N
rinna
705
20
Swallow 70b Hf
Llama 2シリーズを基に日本語能力を強化したオープンソース大規模言語モデルで、7B/13B/70Bの3つの規模と命令チューニング版を提供
大規模言語モデル
Transformers 複数言語対応

S
tokyotech-llm
2,088
10
Calm2 7b
Apache-2.0
CyberAgentLM2は、公開可能な日本語と英語のデータセットに基づき、1.3兆トークンを事前学習したデコーダー専用の言語モデルです。
大規模言語モデル
Transformers 複数言語対応

C
cyberagent
748
28
Youri 7b
llama2 - 7bをベースに、日英混合データセットで継続的に事前学習を行った大規模言語モデルで、日本語タスクでの性能が著しく向上しています。
大規模言語モデル
Transformers 複数言語対応

Y
rinna
3,824
21
Deberta V3 Japanese Large
日本語リソースで訓練されたDeBERTa V3大型モデルで、日本語に最適化されており、形態素解析器が不要で単語境界を尊重します。
大規模言語モデル
Transformers 日本語

D
globis-university
519.17k
2
Deberta V3 Japanese Xsmall
日本語リソースで訓練されたDeBERTa V3モデルで、日本語に最適化されており、推論時に形態素解析器に依存しません
大規模言語モデル
Transformers 日本語

D
globis-university
96
4
ELYZA Japanese Llama 2 7b Fast Instruct
Llama2アーキテクチャを基に、追加事前学習で日本語能力を拡張した言語モデル
大規模言語モデル
Transformers 複数言語対応

E
elyza
1,576
75
ELYZA Japanese Llama 2 7b Instruct
Llama2アーキテクチャをベースに、追加事前学習により日本語能力を拡張した言語モデル
大規模言語モデル
Transformers 複数言語対応

E
elyza
5,917
67
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98