Navaistt V1 Medium
Apache-2.0
Whisper mediumモデルをファインチューニングしたウズベク語音声認識モデルで、タシュケント方言をサポートし、約700時間のトレーニングデータを使用
音声認識 その他
N
islomov
3,081
12
Aitextdetector
Openrail
GPT-2をファインチューニングしたテキスト分類モデルで、AI生成テキスト、Zhihuユーザー回答テキスト、その他のソースのテキストを区別します。
テキスト分類 中国語
A
hugfaceguy0001
293
1
Turkish Llama 8b V0.1
LLaMA-3 8Bモデルをベースに、30GBのトルコ語データセットで完全にファインチューニングされたトルコ語テキスト生成モデル
大規模言語モデル
Transformers その他

T
ytu-ce-cosmos
3,317
60
Llama3 Chinese 8B Instruct Agent V1
Llama3-8b-instructベースモデルをトレーニングし、中国語汎用シーンに適応、ReACTフォーマットのインテリジェントエージェント呼び出しをサポート
大規模言語モデル
Transformers

L
modelscope
17
7
Music Large 800k
Apache-2.0
これは7.8億パラメータを持つ大規模なTransformerモデルで、音楽生成とトランスクリプションタスクに特化しており、アンティシペーショントレーニング手法を採用しています。
音声生成
Transformers

M
stanford-crfm
73
27
Distill Whisper Th Medium
MIT
Whisperアーキテクチャに基づく蒸留版自動音声認識モデルで、タイ語に最適化されており、性能と効率性を兼ね備えています
音声認識
Transformers

D
biodatlab
303
2
Russian Text Normalizer
Apache-2.0
FRED-T5-largeをファインチューニングしたロシア語テキスト正規化モデルで、数字とラテン文字の正規化処理をサポート
大規模言語モデル
Transformers その他

R
saarus72
577
8
Titulm Mpt 1b V1.0
Apache-2.0
TituLM-1B-BN-V1は、ベンガル語のテキスト生成と理解のために特別にトレーニングされた大規模言語モデルで、45.1億のベンガル語トークンを含むデータセットで広範にトレーニングされています。
大規模言語モデル
Transformers その他

T
hishab
61
11
Hamsa V0.1 Beta
Apache-2.0
HamsaはWhisperモデルを基に構築されたアラビア語音声認識モデルで、中東および北アフリカ地域の言語ニーズに焦点を当てています。
音声認識
Transformers アラビア語

H
nadsoft
46
6
Suicidality
ELECTRAアーキテクチャに基づくテキスト分類モデルで、テキスト内の自殺傾向表現を検出するために使用されます
テキスト分類
Transformers 英語

S
sentinet
342
25
Trocr Base Printed Fr
MIT
Transformerベースのフランス語活字OCRモデル、TrOCRモデルのフランス語版の空白を埋める
画像生成テキスト
Transformers フランス語

T
agomberto
110
2
Wav2vec2 Large Xlsr Catala
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルを基にファインチューニングしたカタルーニャ語自動音声認識モデル
音声認識 その他
W
ccoreilly
31
1
Wav2vec2 Xls R 300m Cv6 Turkish
Apache-2.0
facebook/wav2vec2-xls-r-300mをファインチューニングしたトルコ語自動音声認識モデル
音声認識
Transformers その他

W
mpoyraz
38
7
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98