Gemma 2 9b Turkish Lora Continue Pre Trained
基於google/gemma-2-9b基礎模型,使用土耳其語維基百科數據繼續預訓練的LoRA適配模型,提升土耳其文本處理能力
大型語言模型 其他
G
emre
82
4
Gemma 2b It Tamil V0.1 Alpha
其他
這是谷歌Gemma 2B模型的泰米爾語指令微調版本,支持英語和泰米爾語雙語文本生成。
大型語言模型
Transformers 支持多種語言

G
abhinand
38
6
Nusabert Base
Apache-2.0
NusaBERT基礎版是基於BERT架構的多語言編碼器語言模型,支持13種印度尼西亞地區語言,在多個開源語料庫上進行了預訓練。
大型語言模型
Transformers 其他

N
LazarusNLP
68
3
Multilingual Albert Base Cased 64k
Apache-2.0
基於掩碼語言建模(MLM)目標預訓練的多語言ALBERT模型,支持64k詞表大小,區分大小寫
大型語言模型
Transformers 支持多種語言

M
cservan
52
1
Bart Large Japanese
基於日語維基百科預訓練的日本語BART大模型,適用於文本生成和自然語言處理任務。
大型語言模型
Transformers 日語

B
ku-nlp
206
10
Bart Base Japanese
這是一個基於日語維基百科預訓練的日語BART基礎模型,適用於自然語言處理任務。
大型語言模型
Transformers 日語

B
ku-nlp
181
10
Deberta V2 Base Japanese
基於日語維基百科、CC-100和OSCAR語料預訓練的日語DeBERTa V2基礎模型,適用於掩碼語言建模和下游任務微調。
大型語言模型
Transformers 日語

D
ku-nlp
38.93k
29
Roberta Base Japanese With Auto Jumanpp
基於RoBERTa架構的日語預訓練模型,支持自動Juman++分詞,適用於日語自然語言處理任務。
大型語言模型
Transformers 日語

R
nlp-waseda
536
8
Deberta Base Japanese Wikipedia
基於日語維基百科和青空文庫文本預訓練的DeBERTa(V2)模型,適用於日語文本處理任務
大型語言模型
Transformers 日語

D
KoichiYasuoka
32
2
Bert Base Japanese Wikipedia Ud Head
這是一個專為日語依存句法分析設計的BERT模型,用於檢測長單元詞的頭詞,採用問答形式實現。
序列標註
Transformers 日語

B
KoichiYasuoka
474
1
Albert Base Japanese V1 With Japanese Tokenizer
MIT
這是一個經過日語預訓練的ALBERT模型,使用了BertJapaneseTokenizer作為分詞器,處理日語文本更加便捷。
大型語言模型
Transformers 日語

A
ken11
44
3
Mluke Large Lite
Apache-2.0
mLUKE是LUKE的多語言擴展版本,支持24種語言的命名實體識別、關係分類和問答系統任務
大型語言模型
Transformers 支持多種語言

M
studio-ousia
65
2
Mluke Base Lite
Apache-2.0
mLUKE是LUKE的多語言擴展版本,支持24種語言的文本處理任務
大型語言模型
Transformers 支持多種語言

M
studio-ousia
153
2
Sbert Base Cased Pl
SHerbert是基於波蘭語HerBERT模型的SentenceBERT實現,用於生成具有語義意義的句子嵌入,支持通過餘弦相似度比較句子相似度。
文本嵌入 其他
S
Voicelab
1,606
8
Bert Base Japanese V2
基於日語維基百科預訓練的BERT模型,採用Unidic詞典進行詞彙級分詞和整詞掩碼訓練
大型語言模型 日語
B
tohoku-nlp
12.59k
26
French Albert Base Cased
Apache-2.0
基於法語維基百科預訓練的ALBERT基礎模型,支持大小寫識別,適用於法語NLP任務。
大型語言模型
Transformers 法語

F
cservan
38
0
Mluke Base
Apache-2.0
mLUKE是LUKE的多語言擴展版本,支持24種語言的命名實體識別、關係分類和問答系統任務。
大型語言模型
Transformers 支持多種語言

M
studio-ousia
64
6
Tiny Roberta Indonesia
MIT
這是一個基於印尼語的小型RoBERTa模型,專門針對印尼語文本處理任務進行了優化。
大型語言模型
Transformers 其他

T
akahana
17
1
Bert Large Japanese Char
基於日語維基百科預訓練的BERT模型,採用字符級分詞與全詞掩碼策略,適用於日語自然語言處理任務
大型語言模型 日語
B
tohoku-nlp
24
4
Bert Base Japanese Char Whole Word Masking
基於日語文本預訓練的BERT模型,採用字符級分詞和全詞掩碼技術,適用於日語自然語言處理任務。
大型語言模型 日語
B
tohoku-nlp
1,724
4
Bert Base Ja
基於日語維基百科數據集訓練的BERT基礎模型,適用於日語文本的掩碼填充任務
大型語言模型
Transformers 日語

B
colorfulscoop
16
1
Simcse Model Roberta Base Thai
這是一個基於XLM-R的sentence-transformers模型,專門針對泰語進行優化,能夠將句子和段落映射到768維的密集向量空間。
文本嵌入
Transformers

S
mrp
69
2
Roberta Base Indonesian 522M
MIT
基於RoBERTa-base架構的印尼語預訓練模型,使用印尼語維基百科數據訓練,不區分大小寫。
大型語言模型 其他
R
cahya
454
6
Bert Large Japanese
基於日語維基百科預訓練的BERT大型模型,採用Unidic詞典分詞和全詞掩碼策略
大型語言模型 日語
B
tohoku-nlp
1,272
9
Bertinho Gl Base Cased
一個為加利西亞語預訓練的BERT模型(12層,區分大小寫)。基於維基百科數據訓練
大型語言模型 其他
B
dvilares
218
3
Bert Base Japanese
基於日語維基百科文本預訓練的BERT模型,使用IPA詞典進行詞語級分詞處理,適用於日語自然語言處理任務。
大型語言模型 日語
B
tohoku-nlp
153.44k
38
Bert Small Japanese
基於日語維基百科預訓練的BERT小型模型,專為金融文本挖掘優化
大型語言模型
Transformers 日語

B
izumi-lab
358
5
Bert Base Thai
基於BERT-Base架構的泰語專用預訓練模型,針對泰語分詞特點優化,提供優於多語言BERT的性能表現
大型語言模型 其他
B
monsoon-nlp
177
12
Bert Base Japanese Basic Char V2
這是一個基於字符級分詞和全詞掩碼技術的日語BERT預訓練模型,無需依賴`fugashi`或`unidic_lite`工具包。
大型語言模型
Transformers 日語

B
hiroshi-matsuda-rit
14
0
Bert Base Japanese Char V2
針對日語文本預訓練的BERT模型,採用字符級分詞和全詞掩碼機制,基於日語維基百科2020年8月31日版本訓練
大型語言模型 日語
B
tohoku-nlp
134.28k
6
T5 Base Japanese
基於日語語料庫預訓練的T5(文本到文本轉換Transformer)模型,適用於多種文本生成任務。
大型語言模型 日語
T
sonoisa
13.85k
49
Electra Small Paper Japanese Generator
基於日語維基百科預訓練的ELECTRA小型模型,適用於日語文本生成和填充任務
大型語言模型
Transformers 日語

E
izumi-lab
15
1
Mluke Large
Apache-2.0
mLUKE是LUKE的多語言擴展版本,支持24種語言的命名實體識別、關係分類和問答系統任務。
大型語言模型
Transformers 支持多種語言

M
studio-ousia
70
2
Bert Base Multilingual Cased Finetuned Polish Squad1
基於多語言BERT模型微調的波蘭語問答系統,在波蘭語SQuAD1.1數據集上表現優異
問答系統 其他
B
henryk
86
4
Bert Base 5lang Cased
Apache-2.0
bert-base-multilingual-cased的精簡版本,僅支持5種語言(英語、法語、西班牙語、德語和中文),比原版小30%,但對這些語言的表示與原版相同。
大型語言模型 支持多種語言
B
amine
31
1
Bert Base Japanese Whole Word Masking
基於日語文本預訓練的BERT模型,採用IPA詞典分詞和全詞掩碼技術
大型語言模型 日語
B
tohoku-nlp
113.33k
65
Roberta Hindi Guj San
MIT
基於印地語、梵語和古吉拉特語維基百科文章訓練的多語言RoBERTa類模型,支持三種印度語系語言處理。
大型語言模型 其他
R
surajp
51
2
Bert Italian Finedtuned Squadv1 It Alfa
意大利語BERT基礎版在意大利語SQuAD上微調,用於問答下游任務
問答系統 其他
B
mrm8488
286
14
Bert Base Japanese Char
基於日語文本預訓練的BERT模型,採用字符級分詞處理,適用於日語自然語言處理任務。
大型語言模型 日語
B
tohoku-nlp
116.10k
8
Roberta Swedish
這是一個基於RoBERTa架構的瑞典語預訓練模型,適用於多種自然語言處理任務。
大型語言模型
R
birgermoell
54
0
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98