Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
これはbert-tinyからファインチューニングされたクロスエンコーダーモデルで、テキストペアの類似度スコアを計算するために使用され、意味的テキスト類似性、意味検索などのタスクに適しています。
テキスト埋め込み 英語
R
cross-encoder-testing
1,971
0
Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4
文の類似度計算用の事前学習済みモデルで、文を高次元ベクトル空間の埋め込み表現に変換し、それらの間の意味的類似度を計算できます。
テキスト埋め込み
F
GbrlOl
20
1
Lightblue.lb Reranker 0.5B V1.0 GGUF
情報検索やドキュメントランキングタスクに適した軽量なテキストランキングモデルです。
大規模言語モデル
L
DevQuasar
66
0
Distilbert Turkish Sentence Similarity
DistilBERTアーキテクチャに基づくトルコ語の文類似度計算モデル
テキスト埋め込み
Transformers その他

D
umarigan
45
2
Bge Reranker V2 M3 Onnx O4
Apache-2.0
BGE-RERANKER-V2のONNX O4バージョンは最適化されたテキスト再ランキングモデルで、多言語テキストペアの関連性スコアリングをサポートします。
テキスト分類
Transformers

B
hooman650
39
5
Hecross
Apache-2.0
これはヘブライ語用のクロスエンコーダーモデルで、ゼロショット分類タスクをサポートします。
テキスト分類
Transformers その他

H
HeTree
22
0
Mmlw Roberta Base
Apache-2.0
RoBERTaアーキテクチャに基づくポーランド語文埋め込みモデルで、文類似度計算と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers その他

M
sdadas
106.30k
3
Tao 8k
Apache-2.0
tao-8k-origin は文の類似度計算に特化したモデルで、複数の類似度測定方法をサポートし、複数の中国語評価データセットで優れた性能を発揮します。
テキスト埋め込み 中国語
T
Amu
639
46
Simcse Roberta Base Zh
MIT
SimCSE(教師あり版)は教師あり学習に基づく中文文類似度計算モデルで、コントラスティブ学習により文埋め込み表現を最適化します。
テキスト埋め込み
Transformers 中国語

S
hellonlp
30
1
Cross Encoder Umberto Stsb
Umbertoアーキテクチャに基づくイタリア語文類似度計算クロスエンコーダーモデル
テキスト埋め込み
Transformers その他

C
efederici
34
0
Roberta Large Sts B
STS-BデータセットでファインチューニングされたRoBERTa-largeモデルに基づくテキスト類似度計算モデル
テキスト埋め込み
R
SparkBeyond
19
0
Demo
Apache-2.0
bert-base-uncasedをGLUE MRPCデータセットでファインチューニングしたテキスト分類モデル
テキスト分類
Transformers 英語

D
junzai
15
0
Bert Base Uncased Mnli
これはbert-base-uncased事前学習モデルをベースにMultiNLIデータセットでファインチューニングされたテキスト分類モデルです
テキスト分類 英語
B
ishan
2,506
2
Electricidad Small Finetuned Xnli Es
MIT
これはスペイン語に基づく事前学習モデルで、異言語自然言語推論タスクに特化して微調整されています。
大規模言語モデル
Transformers 複数言語対応

E
mrm8488
18
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98