Gte Base Ko
Alibaba-NLP/gte-multilingual-baseモデルを韓国語のトリプレットデータセットでファインチューニングした文埋め込みモデルで、意味的類似度計算に使用されます
ダウンロード数 18
リリース時間 : 11/17/2024
モデル概要
これはAlibaba-NLP/gte-multilingual-baseモデルを基に、韓国語のトリプレットデータセットnlpai-lab/ko-triplet-v1.0でファインチューニングした文変換モデルです。文や段落を768次元の密なベクトル空間にマッピングし、意味的テキスト類似性、意味的検索、テキスト分類などのタスクに使用できます。
モデル特徴
韓国語最適化
韓国語テキストに特化して最適化されており、韓国語トリプレットデータセットでファインチューニングされています
長文サポート
最大8192トークンのシーケンス長をサポートし、長文処理に適しています
高精度
評価データセットで98.55%のコサイン精度を達成しています
モデル能力
意味的テキスト類似度計算
意味的検索
テキスト分類
クラスタリング分析
特徴抽出
使用事例
情報検索
類似文書検索
クエリテキストに基づいて意味的に類似した文書を検索します
テキスト分析
テキストクラスタリング
意味的に類似したテキストを自動的にグループ化します
🚀 SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
このモデルは、Alibaba-NLP/gte-multilingual-base を nlpai-lab/ko-triplet-v1.0 データセットでファインチューニングした sentence-transformers モデルです。文章や段落を768次元の密ベクトル空間にマッピングし、意味的な文章の類似度、意味的な検索、パラフレーズマイニング、テキスト分類、クラスタリングなどに使用できます。
📚 ドキュメント
モデルの詳細
モデルの説明
プロパティ | 詳細 |
---|---|
モデルタイプ | Sentence Transformer |
ベースモデル | Alibaba-NLP/gte-multilingual-base |
最大シーケンス長 | 8192トークン |
出力次元数 | 768トークン |
類似度関数 | コサイン類似度 |
学習データセット | nlpai-lab/ko-triplet-v1.0 |
言語 | ko |
モデルのソース
- ドキュメント: Sentence Transformers Documentation
- リポジトリ: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
完全なモデルアーキテクチャ
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
💻 使用例
直接使用 (Sentence Transformers)
まず、Sentence Transformers ライブラリをインストールします。
pip install -U sentence-transformers
次に、このモデルをロードして推論を実行できます。
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("scottsuk0306/gte-base-ko")
# Run inference
sentences = [
'중, 인사하다, 시주하다, 치다, 사람, 목탁',
'그 중은 시주한 사람에게 목탁을 치며 인사를 했다.',
'재주라는 것은 예절, 음악, 활쏘기, 글쓰기, 말타기, 계산하기다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
📊 評価
評価指標
Triplet
- データセット:
dev
TripletEvaluator
で評価
指標 | 値 |
---|---|
cosine_accuracy | 0.9855 |
dot_accuracy | 0.0145 |
manhattan_accuracy | 0.9855 |
euclidean_accuracy | 0.9855 |
max_accuracy | 0.9855 |
🔧 学習の詳細
学習データセット
nlpai-lab/ko-triplet-v1.0
- データセット: nlpai-lab/ko-triplet-v1.0 at 9cc1d6a
- サイズ: 10,000個の学習サンプル
- 列:
anchor
、positive
、negative
- 最初の1000サンプルに基づく概算統計:
| | anchor | positive | negative |
| :-------- | :----------------------------------------------------------------------------------- | :------------------------------------------------------------------------------------- | :----------------------------------------------------------------------------------- |
| タイプ | string | string | string |
| 詳細 |
- 最小: 9トークン
- 平均: 22.12トークン
- 最大: 146トークン
- 最小: 10トークン
- 平均: 92.69トークン
- 最大: 1815トークン
- 最小: 8トークン
- 平均: 99.24トークン
- 最大: 880トークン
- サンプル:
| anchor | positive | negative |
| :---------------------------------------------------------------------------------------------- | :----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
|
글쓰기, 대회, 참가료, 받다
|글쓰기 대회는 참가자한테 일정分의 참가료를 받았다.
|재주는 예절, 음악, 활쏘기, 글쓰기, 말타기, 계산하기 등등 이다.
| |"K리그 2002 시즌"에서 기록한 관객의 수보다 독일 고틀리프 다임러 경기장에서 개최된 "제4회 세계 육상 선수권 대회"의 관객 수가 많았나?
|1993년 세계 육상 선수권 대회. 제4회 세계 육상 선수권 대회는 국제 육상 경기 연맹 주관으로 1993년 8월 13일에서 8월 22일까지 독일 슈투트가르트 고틀리프 다임러 경기장에서 열린 국제 육상 대회이다. 독일에서 열린 첫 번째 세계 육상 선수권 대회였다. 187개국 선수 1630명이 참가했으며, 대회 역사상 가장 많은 수인 58만 5000명의 관중이 입장했다.
|송강호. 경력. 1996 - 2000: 초기 경력과 주목 받다. 1999년에는 강제규 감독의 영화 《쉬리》에 이장길 역할로 출연했다. 이 영화는 관객수 582만 명을 기록하며 당시 국내 최다 관객 영화 기록을 갱신했고, 최초로 500만 관객을 넘어섰다. 2000년에는 코미디 영화 《반칙왕》에서 첫 주연을 맡았다. 이 영화에서 그는 은행원이자 레슬러 대호 역할로 캐스팅 되어 영화를 위해 레슬링 훈련을 했었다. 이후 송강호는 이 영화가 가장 인상 깊다고 꼽으며 "물리적으로 가장 극한의 상황까지 간 작품이었다는 생각이 든다. 만약 지금 레슬링을 다시 한다면 죽을 거다"라고 말했다. 같은 해 그는 박찬욱 감독의 영화 《공동경비구역 JSA》에서 오경필 중사 역할로 출연했다. 이 영화는 이전까지 반공이데올로기에서 벗어나지 못했던 분단 소재 한국영화의 시각을 인간애로 확장한 작품으로 583만 명의 관객수를 기록하며 역대 흥행 1위 영화로 기록했다. 송강호는 2019년 매체와의 인터뷰에서 배우 인생의 전환점이 됐다고 언급하며 “두 영화가 개봉한 2000년은 배우 생활 초반의 분기점이 됐다”고 말했다. 한 영화 관계자는 송강호에게 "《반칙왕》에서 보여준뛰어난 연기를 보고 그 이상의 연기는 나올 수 없을 것이라 생각했다. 이번 영화를 보고 내가 당신 연기의 한계를 너무 낮게 잡았음을 알았다"고 말했다. 《매일경제》의 프리뷰에서는 "송강호가 그려낸 따뜻하고 넉넉한 오경필 중사는 군기가 한참 빠져 서로 노닥거리는 것으로 비칠수도 있는 모습들을 눈물나는 형제애로 잡아주는 든든한 받침대다"라고 리뷰했다. 이러한 호평 속에 제1회 부산영화평론가협회상, 제38회 대종상영화제, 제3회 도빌아시아영화제, 에서 남우주연상을 수상했고, 이 외에도 백상예술대상에서 인기상을 받는 등 다수의 시상식에서 연기력과 스타성에서 인정을 받았다.
| |트리거는 데이터를 저장시켜?
|트리거는 안테나 시험 장비를 구동시켜 시나리오를 발생시키며, 시나리오에 따라 안테나부의 송신기와 수신기를 제어 및 측정하여 데이터를 저장하 게 된다.
|영화관에서는 왜 대부분의 관객이 실감나게 소리가 잘 들리는 걸까? 디자인이 Ugly하지만 왜 CRT일때는 소리가 잘 들렸을까? 이런 질문에 대한 해답을 영화관 스크린속에서 찾을 수 있었다.
| - 損失関数:
MultipleNegativesRankingLoss
パラメータ:
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
評価データセット
nlpai-lab/ko-triplet-v1.0
- データセット: nlpai-lab/ko-triplet-v1.0 at 9cc1d6a
- サイズ: 3,724個の評価サンプル
- 列:
anchor
、positive
、negative
- 最初の1000サンプルに基づく概算統計:
| | anchor | positive | negative |
| :-------- | :----------------------------------------------------------------------------------- | :------------------------------------------------------------------------------------- | :----------------------------------------------------------------------------------- |
| タイプ | string | string | string |
| 詳細 |
- 最小: 9トークン
- 平均: 22.12トークン
- 最大: 146トークン
- 最小: 10トークン
- 平均: 92.69トークン
- 最大: 1815トークン
- 最小: 8トークン
- 平均: 99.24トークン
- 最大: 880トークン
Jina Embeddings V3
Jina Embeddings V3 は100以上の言語をサポートする多言語文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
MS Marcoパッセージランキングタスクで訓練されたクロスエンコーダモデル、情報検索におけるクエリ-パッセージ関連性スコアリング用
テキスト埋め込み 英語
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
蒸留技術に基づくスパース検索モデルで、OpenSearch向けに最適化されており、推論不要のドキュメントエンコーディングをサポートし、検索関連性と効率性においてV1版を上回ります
テキスト埋め込み
Transformers 英語

O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
PubMedBERTに基づく生物医学エンティティ表現モデルで、自己アライメント事前学習により意味関係の捕捉を最適化します。
テキスト埋め込み 英語
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Largeは強力なセンテンストランスフォーマーモデルで、文の類似度とテキスト埋め込みタスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み 英語
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 は英語の文章変換モデルで、文章類似度タスクに特化しており、複数のテキスト埋め込みベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base は50以上の言語をサポートする多言語文埋め込みモデルで、文類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.2M
246
Polybert
polyBERTは、完全に機械駆動の超高速ポリマー情報学を実現するための化学言語モデルです。PSMILES文字列を600次元の密なフィンガープリントにマッピングし、ポリマー化学構造を数値形式で表現します。
テキスト埋め込み
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
トルコ語BERTベースの文埋め込みモデルで、意味的類似性タスクに最適化
テキスト埋め込み
Transformers その他

B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
BAAI/bge-small-en-v1.5モデルを微調整したテキスト埋め込みモデルで、MEDIデータセットとMTEB分類タスクデータセットで訓練され、検索タスクのクエリエンコーディング能力を最適化しました。
テキスト埋め込み
Safetensors 英語
G
avsolatorio
945.68k
29
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98