Bert Base Uncased Squad1.1 Block Sparse 0.20 V1
MIT
これは剪定により最適化されたBERTの问答モデルで、元のモデルの38.1%の重みを保持し、SQuAD1.1データセットで微調整され、英語の问答タスクをサポートします。
質問応答システム
Transformers 英語

B
madlag
15
0
Cs224n Squad2.0 Albert Base V2
スタンフォードCS224nコースの学生向けに提供される、SQuAD2.0の问答タスクのベンチマークテストに使用するALBERT-base-v2モデル
質問応答システム
Transformers

C
elgeish
169
0
Bert Base Uncased Squad1.1 Block Sparse 0.13 V1
MIT
これは、BERTベースの大文字小文字を区別しないモデルをSQuAD1.1データセットで微調整した问答システムモデルで、ブロック疎構造を採用し、元のモデルの32.1%の重みを保持しています。
質問応答システム
Transformers 英語

B
madlag
25
0
Transformers Qa
Apache-2.0
このモデルは、distilbert-base-casedをSQuADデータセットで微調整した问答モデルで、Keras.ioの问答チュートリアル用に訓練されました。
質問応答システム
Transformers

T
keras-io
23
4
Distilbert Base Uncased Finetuned Squad
Apache-2.0
DistilBERTに基づく问答モデルで、SQuADデータセットで微調整され、読解タスクに使用されます。
質問応答システム
Transformers

D
hark99
20
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
このモデルは、distilbert-base-uncasedモデルをsquadデータセットで微調整したバージョンで、主に问答タスクに使用されます。
質問応答システム
Transformers

D
oo
15
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98