My Awesome Qa Model
Apache-2.0
bert-base-multilingual-casedを基にSQuADデータセットでファインチューニングしたQAモデル
質問応答システム
Transformers

M
vnktrmnb
14
0
Indobert Qa Finetuned Small Squad Indonesian Rizal
MIT
このモデルはindobert-base-uncasedをインドネシア語small-squadデータセットでファインチューニングしたQAモデルです
質問応答システム
Transformers

I
mrizalf7
51
1
Slovakbert Skquad
MIT
このモデルはSlovakBERTをスロバキア語QAデータセットskquadでファインチューニングしたQAモデルです
質問応答システム
Transformers その他

S
TUKE-DeutscheTelekom
17
3
Bert Finetuned Squad
Apache-2.0
bert-base-casedをファインチューニングした質問応答モデルで、SQuADデータセットで最適化されています
質問応答システム
Transformers

B
dpkmnit
13
0
Banglabert Finetuned Squad
このモデルはベンガル語SQuADデータセットでBanglaBERTをファインチューニングしたバージョンで、QAタスク用です
質問応答システム
Transformers

B
Naimul
15
0
Rubert Large Squad
MIT
sberbank-ai/ruBert-baseで訓練されたロシア語Q&Aモデル、ロシア語読解タスクに適応
質問応答システム
Transformers

R
Den4ikAI
26
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
このモデルはdistilbert-base-cased-distilled-squadをファインチューニングしたバージョンで、質問応答タスクに適しています
質問応答システム
Transformers

D
ms12345
14
0
Bert Large Uncased Squadv1.1 Sparse 80 1x4 Block Pruneofa
Apache-2.0
これは、事前学習済みの80% 1x4ブロックスパースPrune OFA BERT-Largeモデルを知識蒸留でファインチューニングしたモデルで、SQuADv1.1質問応答タスクで優れた性能を発揮します。
質問応答システム
Transformers 英語

B
Intel
15
1
Squad En Bert Base
BERT-baseベースの英語抽出型質問応答モデル、SQuAD 2.0データセット向けに訓練、大文字小文字を区別
質問応答システム
Transformers

S
zhufy
16
0
Bert Finetuned Squad2
Apache-2.0
bert-base-casedモデルをファインチューニングした質問応答モデルで、SQuAD2.0形式の質問応答タスクに適しています
質問応答システム
Transformers

B
augustoortiz
14
0
Albert Bahasa Uncased Squad
IndoBenchmarkを基に、翻訳版SQuADデータセットで微調整されたIndoBERT-Liteモデルで、インドネシア語の質問応答タスクに適しています。
質問応答システム
Transformers その他

A
Wikidepia
40
0
Albert Squad V2
Apache-2.0
ALBERTアーキテクチャに基づく質問応答システムモデルで、SQuAD v2データセットで訓練され、質問応答タスクを処理するために使用されます。
質問応答システム
Transformers 英語

A
abhilash1910
22
2
Bert Base Turkish Squad
トルコ語BERTモデルをファインチューニングした質問応答システムで、トルコ語QAタスクに最適化されています
質問応答システム その他
B
savasy
793
18
Mbert Bengali Tydiqa Qa
MIT
mBERTを微調整したベンガル語質問応答モデルで、tydiqaデータセットを使用して訓練されました。
質問応答システム
Transformers その他

M
sagorsarker
34
1
Roberta Base Bne Squad 2.0 Es
RoBERTaアーキテクチャに基づくスペイン語Q&Aモデルで、squad_esデータセットでファインチューニングされており、スペイン語読解タスクに適しています
質問応答システム
Transformers スペイン語

R
jamarju
20
0
Distilbert Onnx
Apache-2.0
これはDistilBERT-base-casedモデルをベースに、知識蒸留技術を用いてSQuAD v1.1データセットでファインチューニングされた質問応答モデルです。
質問応答システム
Transformers 英語

D
philschmid
8,650
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98