Orihime 12B
Orihime-12B は mergekit ツールを使用して統合された事前学習済み言語モデルで、shisa-v2-mistral-nemo-12b と Himeyuri-v0.1-12B モデルを融合したものであり、英語と日本語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

O
yamatazen
48
2
ELYZA Shortcut 1.0 Qwen 32B
Apache-2.0
ELYZA-Shortcut-1.0-Qwen-32BはQwen2.5-32B-Instructを基に開発された非推論モデルで、推論ステップを迂回して直接最終回答を生成できます。
大規模言語モデル
Transformers 複数言語対応

E
elyza
172
2
Gemma 2 Llama Swallow 2b It V0.1
Gemma-2-Llama-Swallowシリーズはgemma-2モデルを継続的に事前学習することで構築され、日本語処理能力を大幅に強化しながら、元の英語能力を保持しています。
大規模言語モデル
Transformers 複数言語対応

G
tokyotech-llm
61
1
HMS Slerp 12B
HMS-Slerp-12BはSLERP(球面線形補間)法でマージされた多言語チャットモデルで、英語と日本語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

H
yamatazen
41
2
Elvenmaid 12B Stock
ElvenMaid-12Bシリーズモデルを統合したChatML形式の言語モデルで、英語と日本語をサポート
大規模言語モデル
Transformers 複数言語対応

E
yamatazen
35
2
Elvenmaid 12B V2
ElvenMaid-12B-v2 は ChatML フォーマットに基づく12Bパラメータの言語モデルで、mergekitのTIESメソッドを使用して複数の事前学習済みモデルを統合し、英語と日本語のインタラクションをサポートしています。
大規模言語モデル
Transformers 複数言語対応

E
yamatazen
50
4
Heron NVILA Lite 1B
Apache-2.0
NVILA-Liteアーキテクチャでトレーニングされた日本語視覚言語モデル、日本語と英語の画像テキストインタラクションをサポート
画像生成テキスト
Safetensors 複数言語対応
H
turing-motors
460
2
Etherealaurora 12B V2
ChatMLアーキテクチャに基づく対話モデルで、mergekitツールを使用して事前訓練された言語モデルを統合して生成
大規模言語モデル
Transformers 複数言語対応

E
yamatazen
859
16
Llama 3 VNTL Yollisa 8B GGUF
これはLlama-3アーキテクチャを基にした80億パラメータのモデルで、ビジュアルノベルや日本のオタクメディアコンテンツの翻訳と処理に特化しています。
大規模言語モデル 複数言語対応
L
mradermacher
53
1
Aurora SCE 12B
SCE手法で統合された多言語ChatMLモデル、英語と日本語の対話をサポート
大規模言語モデル
Transformers 複数言語対応

A
yamatazen
51
6
Llama 3.1 Swallow 70B Instruct V0.3
Llama 3.1 SwallowはMeta Llama 3.1をベースに構築された大規模言語モデルシリーズで、継続的事前学習により日本語能力を強化し、同時に英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
1,659
12
Llama 3.1 Swallow 8B Instruct V0.3
Llama 3.1 SwallowはMeta Llama 3.1をベースに構築された大規模言語モデルシリーズで、持続的事前学習により日本語能力を強化し、同時に英語能力を維持しています。
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
16.48k
20
Llama 3.1 Swallow 8B Instruct V0.2
Llama 3.1 SwallowはMeta Llama 3.1モデルをベースに持続的事前学習を行った大規模言語モデルシリーズで、日本語能力を強化しつつ英語能力も維持しています。
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
2,283
15
Mistral Nemo Japanese Instruct 2408
Apache-2.0
これはMistral-Nemo-Instruct-2407をベースにした日本語の継続的事前学習モデルで、日本語テキスト生成タスクに特化しています。
大規模言語モデル
Safetensors 複数言語対応
M
cyberagent
1,898
39
Llama 3 Swallow 8B Instruct V0.1
Meta Llama 3をベースに構築された日本語最適化大規模言語モデルで、継続的事前学習により日本語能力を強化し、教師付き微調整により指令追従能力を向上させました。
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
13.88k
20
Llama 3 ELYZA JP 8B
ELYZA社が訓練した大規模言語モデルで、Meta-Llama-3-8B-Instructを基に日本語能力を強化
大規模言語モデル
Transformers 複数言語対応

L
elyza
13.52k
113
Llava Calm2 Siglip
Apache-2.0
llava-calm2-siglip は実験的な視覚言語モデルで、画像に関する質問に日本語と英語で回答できます。
画像生成テキスト
Transformers 複数言語対応

L
cyberagent
3,930
25
Shisa V1 Llama3 8b
Meta-Llama-3-8B-Instructをファインチューニングした日本語最適化大規模言語モデルで、複数の日本語ベンチマークテストで優れた性能を発揮
大規模言語モデル
Transformers

S
shisa-ai
28
6
Llama 3 8B Japanese Instruct
これは日本語会話データセットで微調整されたMeta-Llama-3-8B-Instructモデルで、日本語会話タスクに特化しています。
大規模言語モデル
Transformers 複数言語対応

L
haqishen
33
22
Fugaku LLM 13B
その他
Fugaku-LLMはスーパーコンピュータ'富岳'を使用してゼロから事前学習された日本製の大規模言語モデルで、高い透明性と安全性を備え、特に日本語の表現に優れています
大規模言語モデル
Transformers 複数言語対応

F
Fugaku-LLM
25
123
Swallow MS 7b Instruct V0.1
Apache-2.0
Mistral-7B-v0.1を基に継続事前学習を行った日本語強化大規模言語モデル
大規模言語モデル
Transformers 複数言語対応

S
tokyotech-llm
48
14
Swallow MS 7b V0.1
Apache-2.0
Swallow-MS-7b-v0.1はMistral-7B-v0.1を基に継続事前学習した日本語強化モデルで、TokyoTech-LLMによって開発され、日本語タスクで優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

S
tokyotech-llm
736
27
ELYZA Japanese Llama 2 13b Instruct
ELYZA-japanese-Llama-2-13bはLlama 2をベースに追加の事前学習を行い、日本語能力を拡張したモデルです。
大規模言語モデル
Transformers 複数言語対応

E
elyza
1,022
40
ELYZA Japanese Llama 2 7b Fast Instruct
Llama2アーキテクチャを基に、追加事前学習で日本語能力を拡張した言語モデル
大規模言語モデル
Transformers 複数言語対応

E
elyza
1,576
75
ELYZA Japanese Llama 2 7b Instruct
Llama2アーキテクチャをベースに、追加事前学習により日本語能力を拡張した言語モデル
大規模言語モデル
Transformers 複数言語対応

E
elyza
5,917
67
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98