E Star 12B V0.1
これはHugging Face Hubに公開されたtransformersモデルです。具体的な情報は後日追加予定です。
大規模言語モデル
Transformers

E
datumo
2,627
1
Sparklerl 7B Stage1
これはHubに公開されたtransformersモデルです。具体的な機能と詳細情報は後日追加予定です。
大規模言語モデル
Transformers

S
sparkle-reasoning
1,551
1
Sparklerl 7B Stage2 Aug
これは自動生成されたtransformersモデルカードで、具体的な情報は後で補充されます。
大規模言語モデル
Transformers

S
sparkle-reasoning
1,551
1
T5 Typo Correction V3
これはシステムによって自動生成されたtransformersモデルカードで、具体的なモデル情報は補充待ちです。
大規模言語モデル
Transformers

T
Wguy
303
1
Deepfake Detector Faceforensics
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途はさらに情報を追加する必要があります。
大規模言語モデル
Transformers

D
HrutikAdsare
57
1
Qwen2.5 Coder 7B Instruct Bd
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル
Transformers

Q
nomic-ai
44
1
Llama3 1 Relevance Dev
これはシステムによって自動生成されたトランスフォーマーモデルのカードで、具体的な情報は後で補充されます。
大規模言語モデル
Transformers

L
qqlabs
7,149
1
Cadllama
これはtransformersライブラリに基づくモデルで、モデルセンターに送信されました。具体的な機能と用途は後で補足されます。
大規模言語モデル
Transformers

C
ahaduzzamanasif
126
1
Medgpt
これはHugging Faceが公開したTransformersモデルで、具体的な機能と用途は後で補足されます。
大規模言語モデル
Transformers

M
Rabbiaaa
1,603
1
Mbert Lstm Sentiment Analysis
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル
Transformers

M
simoneprete
691
1
Qwen2.5 1.5B Apeach
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に記述されていません。
大規模言語モデル
Transformers

Q
jason9693
49.16k
3
Kpfbert Nli 1
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はさらに情報を追加する必要があります
大規模言語モデル
Transformers

K
eeeyounglee
23
1
Text Classification Model Iab Categories Mixed Bert Base Uncased
これはHubに公開されたTransformersモデルです。詳細情報は後日追加予定です。
大規模言語モデル
Transformers

T
PavanDeepak
2,331
2
Tinymistral 248M
Apache-2.0
Mistral 7Bモデルを基に2.48億パラメータまで縮小した言語モデルで、テキスト生成タスク向けに設計されており、下流タスクの微調整に適しています。
大規模言語モデル
Transformers 英語

T
Locutusque
1,127
46
Albert Xxlarge V2
Apache-2.0
ALBERT XXLarge v2は、マスク言語モデリングの目標に基づいて事前学習された大規模言語モデルで、パラメータ共有のTransformerアーキテクチャを採用し、12層の繰り返し構造と2.23億のパラメータを持っています。
大規模言語モデル 英語
A
albert
19.79k
20
Distilbert Base Nepali
Apache-2.0
これはネパール語のテキストで事前学習されたDistilBERTモデルで、ネパール語の下流タスクに特化して最適化されています。
大規模言語モデル
Transformers

D
Sakonii
109
7
Roberta Small Japanese Aozora Char
青空文庫のテキストに基づき、文字トークナイザーを使用して事前学習されたRoBERTaモデルで、日本語テキスト処理タスクに適しています。
大規模言語モデル
Transformers 日本語

R
KoichiYasuoka
26
1
Gpt Neo 125m
MIT
GPT-Neo 125Mは、GPT - 3アーキテクチャに基づくTransformerモデルで、EleutherAIによって開発され、パラメータ数は1億2500万で、主に英語のテキスト生成タスクに使用されます。
大規模言語モデル 英語
G
EleutherAI
150.96k
204
Xlnet Large Cased
MIT
XLNetは、広義の順列言語モデリング目標に基づく教師なし言語表現学習方法で、Transformer - XLをベースモデルとして採用し、長文脈タスクの処理において卓越した性能を発揮します。
大規模言語モデル
Transformers 英語

X
xlnet
2,419
24
Bert Base Uncased Sparse 70 Unstructured
これはBERT基礎モデルの剪定バージョンで、70%の疎度を達成し、下流タスクの微調整に適しています。
大規模言語モデル
Transformers 英語

B
Intel
28
0
Roberta Large Bne
Apache-2.0
スペイン国立図書館(BNE)のデータを基に学習されたRoBERTaの大型スペイン語言語モデル
大規模言語モデル
Transformers スペイン語

R
PlanTL-GOB-ES
1,685
19
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilroberta Base
Apache-2.0
DistilRoBERTaはRoBERTa-baseモデルの蒸留バージョンで、パラメータが少なく、速度が速く、英語テキスト処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
1.2M
153
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98