Embedder Collection
ドイツ語と英語の多言語埋め込みモデル、8192トークンのコンテキスト長をサポート
テキスト埋め込み 複数言語対応
E
kalle07
6,623
10
Inf Retriever V1 1.5b
Apache-2.0
INF-Retriever-v1-1.5BはINF TECHが開発した大規模言語モデルに基づく密検索モデルで、中英データ検索タスク向けに最適化・微調整されています。
テキスト埋め込み
Transformers 複数言語対応

I
infly
19.59k
25
Snowflake Arctic Embed L V2.0 Gguf
Snowflake Arctic-embed-l-v2.0はSnowflakeがリリースした最新の埋め込みモデルで、多言語ワークロード向けに設計され、検索性能と推論効率が最適化されています。
テキスト埋め込み 複数言語対応
S
Casual-Autopsy
4,066
8
Snowflake Arctic Embed L V2.0 GGUF
Apache-2.0
Snowflake Arctic Embed L v2.0のGGUF量子化バージョンで、高品質な検索タスクに適した効率的な多言語テキスト埋め込みモデルです。
テキスト埋め込み
S
limcheekin
129
1
Gte Multilingual Reranker Base
Apache-2.0
GTEシリーズ初の多言語リランキングモデルで、70以上の言語をサポートし、高性能かつ長文処理能力を備えています。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
239.91k
122
Leniachat Gemma 2b V0
Apache-2.0
スペイン語に最適化された2Bパラメータのチャット&命令モデルで、テキスト生成、対話、Q&Aタスクをサポート
大規模言語モデル
Transformers スペイン語

L
LenguajeNaturalAI
132
14
Chinese Alpaca 2 7b
Apache-2.0
Chinese-Alpaca-2-7BはLlama-2ベースの中国語コマンドファインチューニングモデルで、中国語と英語をサポートし、対話やコマンドタスクに適しています。
大規模言語モデル
Transformers 複数言語対応

C
hfl
206
162
Pegasus Aeslc
PEGASUSはギャップセンテンス抽出に基づく事前学習モデルで、抽象テキスト要約タスク専用に設計されています。
テキスト生成
Transformers 英語

P
google
21
0
Tibert Base
これはティグリニャ語向けに事前学習されたBERT基礎モデルで、4000万トークンのデータセットで40エポックの事前学習を行いました。
大規模言語モデル その他
T
fgaim
28
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98