Ms Marco MiniLM L6 V2
Apache-2.0
MS Marcoパッセージランキングタスクで訓練されたクロスエンコーダモデル、情報検索におけるクエリ-パッセージ関連性スコアリング用
テキスト埋め込み 英語
M
cross-encoder
2.5M
86
Albert Squad V2
Apache-2.0
ALBERTアーキテクチャに基づく質問応答システムモデルで、SQuAD v2データセットで訓練され、質問応答タスクを処理するために使用されます。
質問応答システム
Transformers 英語

A
abhilash1910
22
2
Roberta Base Squad V1
MIT
このモデルはRoBERTaアーキテクチャに基づき、SQuAD1.1データセットでファインチューニングされた質問応答システムで、与えられたコンテキストから質問の答えを抽出することができます。
質問応答システム 英語
R
csarron
95
0
Bert Base Finetuned Squad2
bert-base-uncasedアーキテクチャに基づき、SQuAD2.0データセットで微調整された質問応答モデルで、与えられたテキストから回答を抽出するのに優れています。
質問応答システム 英語
B
phiyodr
78
2
Bert Base Uncased Squad V1
MIT
BERTベースのuncasedモデルをSQuAD1.1データセットでファインチューニングした質問応答システムモデル
質問応答システム 英語
B
csarron
1,893
13
Distilbert Onnx
Apache-2.0
これはDistilBERT-base-casedモデルをベースに、知識蒸留技術を用いてSQuAD v1.1データセットでファインチューニングされた質問応答モデルです。
質問応答システム
Transformers 英語

D
philschmid
8,650
2
Roberta Base Best Squad2
RoBERTaに基づく英語の抽出型質問応答モデルで、SQuAD 2.0データセットで訓練され、回答ありと回答なしの質問応答シナリオを処理できます。
質問応答システム
Transformers

R
PremalMatalia
30
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98