# 自然言語理解

Deberta V3 Large Boolq
MIT
このモデルはmicrosoft/deberta-v3-largeをboolqデータセットで微調整して得られたテキスト分類モデルで、ブール型質問に答えるために使用されます。
テキスト分類 Transformers
D
nfliu
32.15k
3
Searchmap Preview
MIT
電子商取引検索用に最適化された対話型埋め込みモデルで、Stella Embed 400M v5をベースに微調整され、自然言語クエリを理解して関連商品をマッチングするのに優れています。
テキスト埋め込み Transformers 複数言語対応
S
VPLabs
25
3
Qwen 0.5B DPO 5epoch
MIT
TransformersはHugging Faceが提供するオープンソースライブラリで、自然言語処理(NLP)タスクをサポートし、さまざまな事前学習モデルに対応しています。
大規模言語モデル Transformers
Q
JayHyeon
25
1
Rouwei 0.6
RouWei-0.6はIllustrious-xl-early-release-v0を基に大規模にファインチューニングされたテキストから画像を生成するモデルで、アニメスタイルの画像生成に特化し、優れたプロンプト追従能力と美的表現を備えています。
画像生成 英語
R
Minthy
36
3
Llama 3.1 Centaur 70B
Llama-3.1-Centaur-70Bは、自然言語で記述された任意の行動実験における人間の行動を予測およびシミュレートできる認知基礎モデルです。
大規模言語モデル Transformers
L
marcelbinz
1,825
20
Ecot Openvla 7b Oxe
ロボット制御タスク向けの事前学習Transformerモデルで、運動計画、物体把持などの基本機能をサポート
大規模言語モデル Transformers
E
Embodied-CoT
2,003
0
Pony Diffusion V6 XL
Pony Diffusion V6 は多機能なSDXLファインチューニングモデルで、様々な獣人、獣形態または人型生物のビジュアルを生成可能、SFWとNSFWコンテンツに対応しています。
画像生成
P
LyliaEngine
1,226
41
Mamba 1.4b Instruct Hf
このモデルの情報が不足しており、具体的な紹介を提供できません
大規模言語モデル Transformers
M
scottsus
60
1
Sanskritayam Gpt
このモデルはTransformersライブラリに基づいて構築されており、具体的な機能と用途は追加情報が必要です。
大規模言語モデル Transformers
S
thtskaran
17
1
Instructblip Flan T5 Xl 8bit Nf4
MIT
InstructBLIPはBLIP-2をベースにした視覚的指示チューニングモデルで、Flan-T5-xlを言語モデルとして使用し、画像とテキスト指示に基づいて説明を生成できます。
画像生成テキスト Transformers 英語
I
Mediocreatmybest
22
0
Codenlbert Tiny
MIT
bert-smallベースのコードと自然言語分類モデル、精度99%以上
テキスト分類 Transformers 複数言語対応
C
vishnun
68
2
Zero Shot Vanilla Binary Bert
MIT
これはBERTベースのゼロショットテキスト分類モデルで、ゼロショット分類タスク向けに設計されており、アスペクト正規化されたUTCDデータセットでトレーニングされています。
テキスト分類 Transformers 英語
Z
claritylab
26
0
Lamini GPT 774M
gpt2-largeアーキテクチャに基づき、258万件の命令チューニングサンプルでファインチューニングされた774Mパラメータの言語モデル。自然言語命令応答タスクに適している
大規模言語モデル Transformers 英語
L
MBZUAI
862
13
Vilanocr
transformersライブラリに基づくウルドゥー語モデルで、自然言語処理タスクに適しています。
大規模言語モデル Transformers その他
V
musadac
24
0
Bert Finetuned On Nq Short
完全なNatural Questions(NQ)データセットで訓練されたオープンドメイン質問応答モデルで、様々な事実質問に回答可能
大規模言語モデル Transformers
B
eibakke
13
1
Legacy1
BERT (Bidirectional Encoder Representations from Transformers) は、Googleによって開発された、Transformerアーキテクチャに基づく事前学習言語モデルです。
大規模言語モデル Transformers
L
khoon485
19
0
Erlangshen DeBERTa V2 710M Chinese
Apache-2.0
これは、中国語の自然言語理解タスクに特化した710MパラメータのDeBERTa-v2モデルで、全単語マスキング方式で事前学習され、中国語NLP分野に強力なサポートを提供します。
大規模言語モデル Transformers 中国語
E
IDEA-CCNL
246
13
Bert Semantic Similarity
SNLIコーパスでファインチューニングされたBERTモデルで、2つの文の意味的類似度スコアを予測します。
テキスト埋め込み
B
keras-io
22
9
Deberta V3 Large
MIT
DeBERTaV3はELECTRAスタイル事前学習と勾配分離埋め込み共有技術によりDeBERTaを改良し、自然言語理解タスクで優れた性能を発揮
大規模言語モデル Transformers 英語
D
microsoft
343.39k
213
Indobert Lite Large P2
MIT
IndoBERTはBERTモデルを基に、インドネシア語専用に開発された先進的な言語モデルで、マスク言語モデリングと次文予測目標で訓練されています。
大規模言語モデル Transformers その他
I
indobenchmark
117
1
Deberta V3 Xsmall Squad2
DeBERTa v3 xsmallは、マイクロソフトが開発した改良版の自然言語理解モデルで、解離型注意力機構と強化型マスクデコーダーにより性能を向上させ、複数のNLUタスクでRoBERTaを上回っています。
質問応答システム Transformers 英語
D
nbroad
17
0
Deberta V2 Xxlarge Mnli
MIT
DeBERTa V2 XXLargeは分離注意メカニズムに基づく強化型BERT変種で、自然言語理解タスクにおいてRoBERTaとXLNetを凌駕、パラメータ数は15億に達します
大規模言語モデル Transformers 英語
D
microsoft
4,077
8
Deberta V3 Xsmall
MIT
DeBERTaV3はマイクロソフトが提案した改良版DeBERTaモデルで、ELECTRAスタイルの勾配分離埋め込み共有事前学習方法により効率を向上させ、自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル Transformers 英語
D
microsoft
87.40k
43
Deberta Large Mnli
MIT
DeBERTa-V2-XXLargeは分離注意メカニズムと強化型マスクデコーダを基に改良されたBERTモデルで、多くの自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル Transformers 英語
D
microsoft
1.4M
18
Indobert Large P1
MIT
IndoBERTはBERTモデルに基づくインドネシア語の先進的な言語モデルで、マスク言語モデリングと次文予測目標で訓練されています。
大規模言語モデル その他
I
indobenchmark
1,686
4
Distilbart Mnli 12 3
DistilBart-MNLI は bart-large-mnli の蒸留バージョンで、教師なし蒸留技術を採用し、性能はオリジナルモデルに近いがより軽量です。
テキスト分類
D
valhalla
8,791
19
Deberta Base
MIT
DeBERTaは分離注意メカニズムと強化型マスクデコーダーで改良されたBERTモデルで、多くの自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル 英語
D
microsoft
298.78k
78
Deberta Xlarge
MIT
DeBERTaは解耦注意機構と強化型マスクデコーダーを通じて、BERTとRoBERTaモデルを改善し、ほとんどの自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル Transformers 英語
D
microsoft
312
2
Deberta Large
MIT
DeBERTaは改良されたBERTモデルで、分離された注意機構と強化型マスクデコーダにより性能を向上させ、多くの自然言語理解タスクでBERTとRoBERTaを凌駕しています。
大規模言語モデル Transformers 英語
D
microsoft
15.07k
16
Deberta V3 Base
MIT
DeBERTaV3はDeBERTaを改良した事前学習言語モデルで、勾配分離埋め込み共有のELECTRAスタイル事前学習手法により効率を向上させ、自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル 英語
D
microsoft
1.6M
316
Deberta V2 Xxlarge
MIT
DeBERTa V2 XXLargeは、解耦注意力と強化マスクデコードに基づく改良型BERTモデルで、15億のパラメータを持ち、複数の自然言語理解タスクでBERTやRoBERTaを上回る性能を発揮します。
大規模言語モデル Transformers 英語
D
microsoft
9,179
33
Deberta Base
MIT
DeBERTaは、分離注意メカニズムに基づく強化型BERTデコードモデルで、BERTとRoBERTaモデルを改良し、自然言語理解タスクで優れた性能を発揮します。
大規模言語モデル Transformers 英語
D
kamalkraj
287
0
Distilbart Mnli 12 9
DistilBart - MNLIは、教師なし蒸留技術を用いてbart - large - mnliから蒸留された軽量版で、高い精度を維持しながらモデルの複雑さを減らしています。
テキスト分類
D
valhalla
8,343
12
Deberta V2 Xlarge
MIT
DeBERTaは解耦注意力機構に基づく強化型BERTデコードモデルで、改良された注意力機構と強化型マスクデコーダーにより、複数の自然言語理解タスクでBERTやRoBERTaの性能を上回っています。
大規模言語モデル Transformers 英語
D
kamalkraj
302
0
Distilbart Mnli 12 6
DistilBart-MNLI は BART-large-MNLI の蒸留バージョンで、教師なし蒸留技術を採用し、高性能を維持しながらモデルサイズを大幅に削減しています。
テキスト分類
D
valhalla
49.63k
11
Bert Base Chinese
Gpl-3.0
中央研究院語彙チームによって開発された繁体字中国語のBERTモデルで、自然言語処理タスクをサポートします。
大規模言語モデル 中国語
B
ckiplab
81.96k
26
Deberta V2 Xlarge
MIT
DeBERTa V2 XXLargeはマイクロソフトが開発した強化型自然言語理解モデルで、解耦注意力機構と強化型マスクデコーダーを用いてBERTアーキテクチャを改良し、複数のNLPタスクでSOTA性能を達成しました。
大規模言語モデル Transformers 英語
D
microsoft
116.71k
22
Indobert Lite Large P1
MIT
IndoBERTはインドネシア語用の先進的な言語モデルで、BERTアーキテクチャに基づき、マスク言語モデリングと次文予測の目的で訓練されています。
大規模言語モデル Transformers その他
I
indobenchmark
42
0
Indobert Lite Base P1
MIT
IndoBERTはインドネシア語向けに調整されたBERTモデルの変種で、マスク言語モデリングと次文予測目標で訓練されています。Lite版はリソースが限られた環境に適した軽量化モデルです。
大規模言語モデル Transformers その他
I
indobenchmark
723
0
Albert Base Chinese
Gpl-3.0
中央研究院詞庫小組によって開発された繁体中国語Transformerモデルで、ALBERT、BERT、GPT2などのアーキテクチャと自然言語処理ツールを含む
大規模言語モデル Transformers 中国語
A
ckiplab
280
11
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase