Deepseek V3 5layer
DeepSeek-V3の5層簡易開発バージョン、軽量タスクと迅速な実験に適しています。
大規模言語モデル
Transformers

D
chwan
30.01k
1
Gemma Tokenizer
Gemmaトークナイザーの複製で、トークンアクセス不要のCI/テストシナリオ用
大規模言語モデル
Transformers

G
pcuenq
202
1
Ltgbert 100m 2024
MIT
このプロジェクトはMITライセンスに準拠したオープンソースプロジェクトで、一定のオープンソース価値があります。
大規模言語モデル
Transformers

L
babylm
7,150
1
Detr Gui Component Detection V0
MIT
MITライセンスに基づくオープンソースモデル、詳細情報は現在利用不可
大規模言語モデル
Transformers

D
rawhad
16
1
Flamingo 2024
MIT
このモデルはMITライセンスで公開されており、具体的な情報は現在不明です。
大規模言語モデル
Transformers

F
babylm
6,526
1
Robertafinetune
MIT
これはMITライセンスに基づくゼロショット分類モデルで、特定のトレーニングなしでさまざまな分類タスクに適用できます。
テキスト分類
Transformers

R
thugCodeNinja
51
1
Experimental Mistral 1b V00
様々な自然言語処理タスクを処理できる多機能な大規模言語モデル
大規模言語モデル
Transformers

E
NickyNicky
218
3
Zsc Text
MIT
これはMITライセンスに基づくゼロショット分類モデルで、さまざまな分類タスクに適用できます。
テキスト分類
Transformers

Z
deepnight-research
18
0
Self Rag Critic
MIT
MITライセンスで公開されたモデルで、詳細情報は追加が必要です
大規模言語モデル
Transformers

S
selfrag
86
12
Tiny Mistral
Mistralアーキテクチャのランダム初期化モデルで、エンドツーエンドテストに適しています。
大規模言語モデル
Transformers

T
openaccess-ai-collective
23.43k
14
Llama2finetune V2
AutoTrainプラットフォームでトレーニングされたテキスト生成モデルで、入力プロンプトに基づいて一貫性のあるテキストコンテンツを生成できます
テキスト生成
Transformers

L
aboonaji
1,767
6
Tinyllama V0
Apache-2.0
Llamaアーキテクチャで再構築された最初のTinyStories-1Mバージョンで、子供向けストーリー生成を目的としたコンセプト検証モデル
大規模言語モデル
Transformers

T
Maykeye
565.95k
34
Minigpt 4 LLaMA 7B
MiniGPT-4は、視覚と言語の能力を結合したマルチモーダルモデルで、Vicuna言語モデルに基づいて開発されています。
テキスト生成画像
Transformers

M
wangrongsheng
1,777
18
Rare Puppers
これはPyTorchとHuggingPicsを使用して構築された画像分類モデルで、特に希少犬種の識別に特化しています。
画像分類
Transformers

R
lahori
33
0
Gpt4chan Model Float16
MIT
大規模言語モデル
Transformers

G
pawelppppaolo
21
9
Stanford Dogs Google Vit Base Patch16 224
MIT
このモデルはMITライセンスで公開されており、詳細情報は追加が必要です。
大規模言語モデル
Transformers

S
ep44
16
1
Autotrain Map No Map Twitter Demo 39701103400
これはAutoTrainでトレーニングされた二項分類モデルで、画像に地図が含まれているかどうかを区別します。
画像分類
Transformers

A
davanstrien
16
1
3 Labels
AutoTrainでトレーニングされた3クラス画像分類モデルで、検証セットで95%の精度を達成
画像分類
Transformers

3
Ailyth
18
0
Example 015
これはHuggingPicsによって生成された画像分類モデルで、精度は94.12%です。
画像分類
Transformers

E
tempmag
37
0
Autotrain Reconocimiento Banderas 2960885598
これはAutoTrainでトレーニングされた多クラス画像分類モデルで、旗識別タスク専用です。
画像分類
Transformers

A
Pafebla
18
0
Vit Image Classification Trading Cards V1
MIT
このモデルはMITライセンスで公開されており、具体的な情報は現在利用できません。
大規模言語モデル
Transformers

V
connorhoehn
30
0
Test Zeroshot
これはゼロショット分類モデルで、特定タスクのトレーニングデータなしでテキストを分類できます
テキスト分類
Transformers

T
paulhindemith
31
0
Tts Tacotron2 German
Apache-2.0
SpeechBrainフレームワークを使用し、12日間のドイツ語カスタムデータセットでトレーニングされたTacotron2テキスト音声変換(TTS)モデルです。
音声合成 ドイツ語
T
padmalcom
121
12
Serverless Roomsort
Apache-2.0
microsoft/beit-base-patch16-224-pt22k-ft22kを基に微調整した画像分類モデルで、評価データセットで98.92%の精度を達成。
画像分類
Transformers

S
ShuaHousetable
809
1
Vn Menu Donut
MIT
このモデルはMITライセンスで公開されており、具体的な情報は提供されていません。
大規模言語モデル
Transformers

V
binhnase04854
65
0
Vit Test 1 95
これはVision Transformerアーキテクチャに基づく画像分類モデルで、精度は95.02%に達します。
画像分類
Transformers

V
25khattab
15
0
Electric
HuggingPicsによって生成された画像分類モデル、精度は91.67%
画像分類
Transformers

E
smc
30
0
Rare Puppers
これはPyTorchとHuggingPicsをベースにした画像分類モデルで、レア犬種の識別に特化しています。
画像分類
Transformers

R
jmarshall
30
0
Llama Or Potato
HuggingPicsで生成された画像分類モデルで、アルパカとジャガイモの画像を正確に区別できます。
画像分類
Transformers

L
osanseviero
37
0
Autonlp More Fine Tune 24465520 26265898
これはAutoNLPを基に訓練された抽出型質問応答モデルで、与えられたテキストから質問の答えを抽出することができます。
質問応答システム
Transformers その他

A
teacookies
16
0
Paraphraser Model2
これはGoogle T5 Transformerアーキテクチャを微調整したテキストの意味解釈生成モデルで、Quoraの質問と回答のペアのデータセットを使用して訓練され、意味が似ているが表現が異なる文を生成することができます。
テキスト生成
P
auday
16
0
Roberta Minuscule
RoBERTaミニ版は、テスト目的で設計された極簡モデルで、RoBERTaアーキテクチャに基づいており、自然言語処理タスクに適しています。
大規模言語モデル
Transformers

R
lgrobol
2,068
1
Flaubert Minuscule
FlauBERTミニ版は、テスト目的で設計された極小のフランス語言語モデルで、FlauBERTアーキテクチャに基づく軽量化バージョンです。
大規模言語モデル
Transformers

F
lgrobol
1,372
0
TEST
Apache-2.0
bert - base - uncasedをベースに微調整したモデルで、訓練精度は93.75%、検証精度は50%です。
大規模言語モデル
Transformers

T
joe5campbell
14
0
Dog
HuggingPicsで生成された画像分類モデルで、さまざまな犬種を識別するために特別に設計されています
画像分類
Transformers

D
Sena
22
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98