Sentence Transformers Alephbertgimmel Small
これはsentence-transformersベースのヘブライ語文類似性計算モデルで、テキストを512次元ベクトル空間にマッピングし意味検索やクラスタリングタスクに使用可能
テキスト埋め込み
Transformers その他

S
imvladikon
39
1
Bge Large En V1.5 Quant
MIT
BGE-large-en-v1.5の量子化(INT8)ONNXバリアント、DeepSparseによる推論加速
テキスト埋め込み
Transformers 英語

B
RedHatAI
1,094
22
Indosbert Large
indoSBERT-largeはsentence-transformersベースのインドネシア語の文埋め込みモデルで、文や段落を256次元ベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み その他
I
denaya
510
13
Indobert Finetuned Indonli
これはIndoBERTモデルをベースに、インドネシアの自然言語推論データセットでファインチューニングされた文埋め込みモデルで、テキストを768次元ベクトル空間にマッピングできます。
テキスト埋め込み
Transformers その他

I
rahmanfadhil
128
4
Msmarco Distilbert Base Tas B Mmarco Pt 300k
これはDistilBERTアーキテクチャに基づくポルトガル語の文埋め込みモデルで、意味的類似性タスクに特化して最適化されています。
テキスト埋め込み
Transformers その他

M
mpjan
37
4
Bertimbau Base Portuguese Sts
BERTimbauベースのポルトガル語の文類似性計算モデルで、文や段落を768次元のベクトル空間にマッピングできます
テキスト埋め込み
Transformers

B
alfaneo
344
1
Sanstib
このモデルはサンスクリット語とチベット語の文埋め込みを生成するために使用され、意味的類似性タスクに適しています。
テキスト埋め込み
Transformers

S
buddhist-nlp
14
2
Sbert Large Cased Pl
SHerbert largeはポーランド語HerBERTを改良したSentenceBERTモデルで、意味的な文埋め込みを生成し、コサイン類似度で比較します。
テキスト埋め込み その他
S
Voicelab
327
7
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98