Llm Jp 3.1 1.8b
Apache-2.0
LLM-jp-3.1-1.8b是由日本國立情報學研究所開發的大語言模型,基於LLM-jp-3系列,融入指令預訓練增強指令遵循能力。
大型語言模型
Transformers 支持多種語言

L
llm-jp
572
1
Shisa V2 Llama3.3 70b
Shisa V2是由Shisa.AI訓練的雙語(日語/英語)通用聊天模型系列,基於Llama-3.3-70B-Instruct優化,專注於提升日語任務表現同時保持英語能力。
大型語言模型
Transformers 支持多種語言

S
shisa-ai
144
2
Shisa V2 Mistral Nemo 12b
Apache-2.0
Shisa V2是由Shisa.AI訓練的雙語(日語/英語)通用聊天模型,專注於日語任務優化,同時保持英語能力。
大型語言模型
Transformers 支持多種語言

S
shisa-ai
53
2
Shisa V2 Unphi4 14b
Apache-2.0
Shisa V2是由Shisa.AI訓練的雙語(日語/英語)通用聊天模型,專注於提升日語任務能力的同時保持強大的英語能力。
大型語言模型
Transformers 支持多種語言

S
shisa-ai
62
3
Stockmark 2 100B Instruct Beta
MIT
Stockmark-2-100B是一個專注於日語能力的1000億參數大語言模型,基於1.5萬億token的多語言數據預訓練,並通過日語合成數據增強指令跟隨能力。
大型語言模型
Transformers 支持多種語言

S
stockmark
1,004
9
Anime Whisper
MIT
專精於日式動畫風格表演臺詞領域的日語語音識別模型
語音識別
Transformers 日語

A
litagin
4,873
72
EZO Llama 3.2 3B Instruct Dpoe
基於Meta AI的Llama 3.2微調的日語優化模型,支持多語言文本生成
大型語言模型
Transformers 支持多種語言

E
AXCXEPT
1,561
7
Llama 3 Swallow 8B Instruct V0.1
基於Meta Llama 3構建的日語優化大語言模型,通過持續預訓練增強日語能力,採用監督微調提升指令跟隨能力
大型語言模型
Transformers 支持多種語言

L
tokyotech-llm
13.88k
20
Llama 3 ELYZA JP 8B
由ELYZA公司訓練的大型語言模型,基於Meta-Llama-3-8B-Instruct增強日語能力
大型語言模型
Transformers 支持多種語言

L
elyza
13.52k
113
Sarashina2 13b
MIT
由SB Intuitions公司訓練的大語言模型,支持日語和英語,基於Llama2架構
大型語言模型
Transformers 支持多種語言

S
sbintuitions
1,167
17
Shisa V1 Llama3 8b
基於Meta-Llama-3-8B-Instruct微調的日語優化大語言模型,在多個日語基準測試中表現優異
大型語言模型
Transformers

S
shisa-ai
28
6
Llama 3 Swallow 8B V0.1
基於Meta Llama 3構建的日語增強大語言模型,通過持續預訓練和指令微調提升日語處理能力
大型語言模型
Transformers 支持多種語言

L
tokyotech-llm
2,230
10
Fugaku LLM 13B Instruct
其他
Fugaku-LLM是完全利用超級計算機'富嶽'從頭開始預訓練的國產模型,以日語為主訓練數據,在日語處理方面表現卓越
大型語言模型
Transformers 支持多種語言

F
Fugaku-LLM
320
28
Llama 3 Youko 8b
基於Meta-Llama-3-8B在混合日語和英語數據集上進行220億token持續預訓練的日語優化模型
大型語言模型
Transformers 支持多種語言

L
rinna
1,249
60
Fugaku LLM 13B
其他
Fugaku-LLM是使用超級計算機'富嶽'從零開始預訓練的日本國產大語言模型,具有高度透明性和安全性,日語表現尤為出色
大型語言模型
Transformers 支持多種語言

F
Fugaku-LLM
25
123
Honyaku 7b V2
Apache-2.0
Honyaku-7b-v2是其前代模型的改進版本,在多語言生成標籤的遵循準確性上有所提升。
機器翻譯
Transformers

H
aixsatoshi
17
4
Swallow MS 7b Instruct V0.1
Apache-2.0
基於Mistral-7B-v0.1進行持續預訓練的日語增強大語言模型
大型語言模型
Transformers 支持多種語言

S
tokyotech-llm
48
14
Rakutenai 7B Chat
Apache-2.0
RakutenAI-7B-chat是樂天集團開發的日語大語言模型,在日語理解基準測試中表現優異,同時支持英語任務。基於Mistral-7B架構擴展詞彙表優化日文處理。
大型語言模型
Transformers 支持多種語言

R
Rakuten
3,702
62
Whisper Large V3 Japanese 4k Steps Ct2
MIT
這是OpenAI Whisper large-v3模型的CTranslate2轉換版本,專門針對日語進行了4000步的額外訓練,支持多種語言的語音識別。
語音識別 支持多種語言
W
JhonVanced
54
4
Faster Whisper Large V3 Ja
MIT
基於OpenAI Whisper large-v3的日語優化版本,支持多語言語音識別
語音識別 支持多種語言
F
JhonVanced
46
3
Japanese E5 Mistral 7b Slerp
MIT
一個通過合併E5 Mistral 7B Instruct和Japanese StableLM Base Gamma 7B創建的日語文本嵌入模型,專注於句子相似度任務
文本嵌入
Transformers 日語

J
oshizo
94
7
ELYZA Japanese Llama 2 13b Fast Instruct
基於Llama 2的日語優化模型,專為提升日語交互體驗而設計
大型語言模型
Transformers 支持多種語言

E
elyza
1,109
23
ELYZA Japanese Llama 2 13b Instruct
ELYZA-japanese-Llama-2-13b是基於Llama 2進行額外預訓練以擴展日語能力的模型。
大型語言模型
Transformers 支持多種語言

E
elyza
1,022
40
Japanese Clip Vit B 32 Roberta Base
日語版本的CLIP模型,能夠將日語文本和圖像映射到相同的嵌入空間,適用於零樣本圖像分類、文本-圖像檢索等任務。
文本生成圖像
Transformers 日語

J
recruit-jp
384
9
Nekomata 14b
其他
基於Qwen-14B在混合日語和英語數據集上持續預訓練的大語言模型,顯著提升日語任務表現
大型語言模型
Transformers 支持多種語言

N
rinna
705
20
Swallow 70b Hf
基於Llama 2系列增強日語能力的開源大語言模型,提供7B/13B/70B三種規模及指令調優版本
大型語言模型
Transformers 支持多種語言

S
tokyotech-llm
2,088
10
Calm2 7b
Apache-2.0
CyberAgentLM2 是一個僅解碼器的語言模型,基於公開可用的日語和英語數據集,預訓練了1.3萬億個token。
大型語言模型
Transformers 支持多種語言

C
cyberagent
748
28
Youri 7b
基於llama2-7b在日英混合數據集上進行持續預訓練的大語言模型,在日語任務上性能顯著提升
大型語言模型
Transformers 支持多種語言

Y
rinna
3,824
21
Deberta V3 Japanese Large
基於日語資源訓練的DeBERTa V3大型模型,專為日語優化,無需形態分析器且尊重詞語邊界。
大型語言模型
Transformers 日語

D
globis-university
519.17k
2
Deberta V3 Japanese Xsmall
基於日語資源訓練的DeBERTa V3模型,專為日語優化,推理時不依賴形態分析器
大型語言模型
Transformers 日語

D
globis-university
96
4
ELYZA Japanese Llama 2 7b Fast Instruct
基於Llama2架構,通過追加預訓練擴展日語能力的語言模型
大型語言模型
Transformers 支持多種語言

E
elyza
1,576
75
ELYZA Japanese Llama 2 7b Instruct
基於Llama2架構,通過追加預訓練擴展日語能力的語言模型
大型語言模型
Transformers 支持多種語言

E
elyza
5,917
67
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98