Turkish Base Bert Uncased Mean Nli Stsb Tr
MIT
これはトルコ語BERTモデルに基づく文埋め込みモデルで、文の類似度計算や意味的検索タスクに適しています。
テキスト埋め込み
Transformers その他

T
atasoglu
744
2
E5 Base Mlqa Finetuned Arabic For Rag
これはsentence-transformersに基づくモデルで、文や段落を768次元の稠密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
E
OmarAlsaabi
92
5
Klue Roberta Base Klue Sts
これはsentence-transformersに基づくモデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
K
shangrilar
165
0
Simcse Model XLMR
Apache-2.0
XLM - Rに基づくsentence - transformersモデルで、SimCSE方法を用いて訓練され、文や段落を768次元の密集ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
kornwtp
20
0
Simcse Model Phayathaibert
Apache-2.0
これはsentence-transformersに基づくモデルで、文章や段落を768次元の密集ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

S
kornwtp
123
2
Xlmr Ted
MIT
これはsentence-transformersに基づく文埋め込みモデルで、イタリア語と英語の文を768次元のベクトル表現に変換でき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

X
nickprock
16
0
S DagoBERT STSb
これはsentence-transformersに基づく文の埋め込みモデルで、文や段落を768次元の稠密ベクトル空間にマッピングでき、文の類似度計算、意味検索、クラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

S
jpostma
13
0
Keyphrase Mpnet V1
フレーズに特化して最適化された文変換器モデルで、フレーズを768次元の稠密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

K
uclanlp
4,278
2
Contriever Gpl Hotpotqa
これはsentence-transformersに基づくモデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
テキスト埋め込み
Transformers

C
income
13
0
Debatenet 2 Cat
MIT
これはsentence-transformersに基づく文の類似度モデルで、移民関連の要求や主張の文に特化して最適化されています。
テキスト埋め込み
Transformers 複数言語対応

D
nblokker
25
3
Indo Sentence Bert Base
Apache-2.0
これはsentence - transformersに基づくインドネシア語の文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングできます。
テキスト埋め込み
Transformers その他

I
firqaaa
1,367
17
Bmz Topics
これはsentence-transformersに基づく文の埋め込みモデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
Transformers

B
peter2000
13
1
Deberta Sentence Transformer
これはDeBERTaアーキテクチャに基づく文変換器モデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

D
embedding-data
825
5
Bertimbaulaw Base Portuguese Sts
これはsentence-transformersに基づくポルトガル語の文の類似度計算モデルで、文や段落を768次元のベクトル空間にマッピングすることができます。
テキスト埋め込み
Transformers

B
alfaneo
310
1
Sentencetransformer Bert Hinglish Big
これはBERTアーキテクチャに基づく文変換器モデルで、ヒングリッシュ(ヒンディー語と英語の混合言語)に特化して最適化されており、文を768次元のベクトル空間にマッピングできます。
テキスト埋め込み
Transformers

S
aditeyabaral
16
0
Tsdae Bert Base Dv News Title
これはsentence-transformersフレームワークに基づく意味ベクトルモデルで、ディヴィヒ語の文や段落を768次元の稠密ベクトル空間にマッピングでき、テキストクラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
Transformers その他

T
ashraq
13
1
Patentsberta
深度NLPに基づく混合モデルで、強化型SBERTを用いて特許距離の計算と分類を実現します。
テキスト埋め込み
Transformers

P
AI-Growth-Lab
35.15k
41
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98