Turkish Medical Question Answering
MIT
BERTアーキテクチャに基づいて微調整されたトルコ語の医療分野の質問応答モデルで、医療テキストから回答を抽出するために特別に設計されています。
質問応答システム
Transformers その他

T
kaixkhazaki
20
1
Modernbert QnA Base Squad
Apache-2.0
ModernBERTをファインチューニングした質問応答モデルで、SQuADデータセットで優れた性能を発揮し、抽出型質問応答タスクに適しています。
質問応答システム
Transformers 英語

M
rankyx
1,106
6
Flan T5 Base Squad2
MIT
flan-t5-baseモデルをベースに、SQuAD2.0データセットでファインチューニングされた抽出型質問応答モデルで、無回答を含む質問ペアを処理可能
質問応答システム
Transformers 英語

F
sjrhuschlee
2,425
4
Roberta Base Ca V2 Cased Qa
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語質問応答モデルで、カタルーニャ語質問応答タスクで優れた性能を発揮します。
質問応答システム
Transformers その他

R
projecte-aina
208
1
Electra Base Squad2
これはELECTRA-baseアーキテクチャに基づく英語の抽出型質問応答モデルで、SQuAD 2.0データセットで訓練されており、質問応答タスクに適しています。
質問応答システム
E
bhadresh-savani
102
0
Xquad Th Mbert Base
多言語BERTベースのタイ語抽出型質問応答モデルで、大文字小文字を区別でき、タイ語の質問応答タスクに適しています。
質問応答システム
Transformers

X
zhufy
16
0
Autonlp More Fine Tune 24465520 26265898
これはAutoNLPを基に訓練された抽出型質問応答モデルで、与えられたテキストから質問の答えを抽出することができます。
質問応答システム
Transformers その他

A
teacookies
16
0
Bert Base Multilingual Xquad
bert-base-multilingual-uncasedに基づく多言語質問応答モデルで、XQuADデータセットで微調整されました。
質問応答システム
Transformers その他

B
alon-albalak
24
0
Longformer Base 4096 Spanish Finetuned Squad
これは、スペイン語の長文版Longformerをベースに、SQACデータセットを使用して質問応答タスクに対して微調整されたモデルで、最大4,096トークンのテキストシーケンスをサポートします。
質問応答システム
Transformers スペイン語

L
mrm8488
98
7
Autonlp More Fine Tune 24465520 26265897
これはAutoNLPを基に訓練された抽出型質問応答モデルで、与えられたテキストから質問の答えを抽出することができます。
質問応答システム
Transformers その他

A
teacookies
16
1
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERTはBERTの軽量蒸留バージョンで、パラメータ数が40%減少し、速度が60%向上し、GLUEベンチマークテストでBERTの95%以上の性能を維持します。このモデルは質問応答タスク用に微調整されています。
質問応答システム
Transformers 英語

D
distilbert
154.39k
115
Roberta Base Bne Sqac
Apache-2.0
スペイン語質問応答モデル。roberta-base-bneを微調整し、スペイン国立図書館の570GBのテキストデータで事前学習したものです。
質問応答システム
Transformers スペイン語

R
PlanTL-GOB-ES
507
4
Roberta Large Bne Sqac
Apache-2.0
これはスペイン語質問応答タスクに最適化されたRoBERTa大型モデルで、スペイン国立図書館の大規模コーパスを基に訓練されています。
質問応答システム
Transformers スペイン語

R
PlanTL-GOB-ES
966
8
Bart Squad2
BARTアーキテクチャに基づく抽出型質問応答モデルで、Squad 2.0データセットでトレーニングされ、F1スコアは87.4
質問応答システム
Transformers 英語

B
primer-ai
18
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98