Tooka SBERT V2 Large
ペルシャ語専用に設計された意味的テキスト類似度および埋め込みモデルで、文を密ベクトル空間にマッピングし、意味的に近いテキストを空間内で近接させます。
テキスト埋め込み
T
PartAI
127
1
Labse Ru Turbo
MIT
ロシア語の文埋め込みを計算するためのBERTモデル。cointegrated/LaBSE-en-ruを基に開発され、ロシア語処理性能を最適化
テキスト埋め込み
Transformers その他

L
sergeyzh
3,987
15
T5 Base Spell Correction Fr
MIT
このモデルはT5アーキテクチャに基づいており、フランス語テキストのスペルミスや句読点の誤りを修正するために特別に設計されています。
テキスト生成
Transformers フランス語

T
fdemelo
249
2
Pegasus Indonesian Base Finetune
Apache-2.0
このモデルはPEGASUSアーキテクチャに基づくインドネシア語テキスト要約モデルで、Indosum、Liputan6、XLSumデータセットでファインチューニングされており、ニュース記事の要約タスクに適しています。
テキスト生成
Transformers その他

P
thonyyy
172
2
Punctuation Fullstop Truecase English
Apache-2.0
このモデルは英語テキスト向けに設計されており、句読点回復、大文字小文字修正、文境界検出のタスクを同時に実行できます。
テキスト生成 英語
P
1-800-BAD-CODE
427
9
Uztext 3Gb BPE Roberta
Apache-2.0
事前学習済みのウズベク語(キリル文字とラテン文字)マスク言語モデリング及び文予測モデル
大規模言語モデル
Transformers その他

U
rifkat
25
7
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98