Kanana Nano 2.1b Instruct GGUF
Kanana Nano 2.1B Instructは、Kakaoが開発した21億パラメータの命令微調整言語モデルで、英語と韓語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
K
Melvin56
55
1
Kanana Nano 2.1b Embedding
KananaはKakaoが開発したバイリンガル(韓国語/英語)言語モデルシリーズで、韓国語タスクで優れた性能を発揮し、英語タスクでも競争力があり、同規模のモデルと比較して計算コストを大幅に削減しています。
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
7,722
20
Summarisation Model
これはSAMSumデータセットでファインチューニングされたT5テキスト要約モデルで、対話や会話の要約タスクに適しています。
テキスト生成
Transformers

S
Saravanankumaran
16
0
My Frugal Audio Model
Apache-2.0
これはfacebook/wav2vec2-baseをファインチューニングした音声処理モデルで、主に音声関連タスクに使用されます
音声分類
Transformers

M
hsalehILB
1
0
Modern Bert Multilingual
Apache-2.0
ModernBertMultilingualはゼロからトレーニングされた多言語モデルで、中国語、英語、日本語、韓国語をサポートし、混合東アジア言語テキストタスクで優れたパフォーマンスを発揮します。
大規模言語モデル
Safetensors 複数言語対応
M
neavo
333
20
Safesql V1
Apache-2.0
Keras 3.xでトレーニングされた悪意あるSQL検出モデル、複数のSQLインジェクション攻撃ベクトルを識別可能
テキスト分類 英語
S
deathsaber93
41
1
Zlm B64 Le4 S8000
MIT
このモデルはmicrosoft/speecht5_ttsをファインチューニングした音声合成(TTS)モデルで、主にテキストから音声への変換タスクに使用されます。
音声合成
Transformers

Z
mikhail-panzo
24
0
Wav2vec2 Large Xls R 300m Albanian Colab
Apache-2.0
このモデルは、facebook/wav2vec2-xls-r-300mをcommon_voice_albanianデータセットで微調整した音声処理モデルで、アルバニア語関連のタスクに適しています。
音声認識
Transformers

W
Alimzhan
8,810
1
Bart Multinews Model
これはmulti_newsデータセットで訓練されたテキスト要約モデルで、複数のドキュメント入力から簡潔な要約を生成できます。
テキスト生成
Transformers

B
usakha
18
0
Dreambooth Diffusion Clay Cups
Keras Dreamboothで微調整されたテキストから画像を生成するモデルで、ベンガル陶土芸術スタイルの様々な物品画像を生成可能
画像生成
D
keras-dreambooth
13
0
Bert Finetuned Small Data Uia
Apache-2.0
このモデルはbert-base-uncasedを未指定のデータセットで微調整したバージョンで、自然言語処理タスクに適しています。
大規模言語モデル
Transformers

B
eibakke
22
0
Fillmaskmodel
MIT
xlm-roberta-baseをファインチューニングしたマスキングモデルで、マスクされたテキストセグメントを予測するために使用されます
大規模言語モデル
Transformers

F
Okyx
46
1
Vit Base Patch16 224 Wi2
Apache-2.0
google/vit-base-patch16-224をファインチューニングしたVision Transformerモデルで、画像分類タスクに適しています
画像分類
Transformers

V
Imene
21
0
Vit Base Patch16 224 In21k Wr
Apache-2.0
このモデルはgoogle/vit-base-patch16-224-in21kを未知のデータセットでファインチューニングしたVision Transformerモデルで、主に画像分類タスクに使用されます。
画像分類
Transformers

V
Imene
21
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
このモデルはGoogleのViTモデルを未知のデータセットでファインチューニングしたバージョンで、主に画像分類タスクに使用されます。
画像分類
Transformers

V
Zynovia
22
0
Malaya Speech Fine Tune MrBrown 15 Jun
このモデルはuob_singlishデータセットでmalay-huggingface/wav2vec2-xls-r-300m-mixedを微調整したバージョンで、主にシンガポール英語音声認識に使用されます。
音声認識
Transformers

M
RuiqianLi
44
0
Electra Large Discriminator Squad2 512
これはELECTRAアーキテクチャに基づく大規模識別器モデルで、質問応答タスクのためにSQuAD2.0データセットでファインチューニングされており、回答あり・なしの両方の質問シナリオを処理できます。
質問応答システム
Transformers

E
ahotrod
8,925
6
Wav2vec2 2 Bart Base
LibriSpeech ASR cleanデータセットでファインチューニングされたwav2vec2-baseとbart-baseに基づく音声認識モデル
音声認識
Transformers

W
patrickvonplaten
493
5
Test Model
Apache-2.0
ResNet50 v1.5はオリジナルのResNet50 v1モデルの改良版で、畳み込みストライドを調整することで約0.5%のtop1精度向上を実現しました。
画像分類
Transformers

T
mchochowski
18
0
Alphadelay
Apache-2.0
facebook/wav2vec2-baseを微調整した音声認識モデル、単語誤り率(WER)は1.0
音声認識
Transformers

A
renBaikau
17
0
Transformers Qa
Apache-2.0
このモデルは、distilbert-base-casedをSQuADデータセットで微調整した问答モデルで、Keras.ioの问答チュートリアル用に訓練されました。
質問応答システム
Transformers

T
keras-io
23
4
Wav2vec2 Large Lv60h 100h 2nd Try
LibriSpeechデータセットで微調整されたwav2vec2-large-lv60音声認識モデル、英語音声からテキストへの変換タスクをサポート
音声認識
Transformers

W
patrickvonplaten
20
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98