Authormist Originality
MIT
AI生成テキストを人間の執筆スタイルに近づけるために設計された言語モデルで、AIテキスト検知システムの回避に最適化されています
大規模言語モデル
Transformers 英語

A
authormist
64
2
Quickmt Zh En
高速かつ高精度なニューラル機械翻訳モデルで、中国語から英語への翻訳に使用されます
機械翻訳 複数言語対応
Q
quickmt
23
1
Moirai Moe 1.0 R Base
これは事前学習された時系列予測モデルで、時系列データの分析と予測タスクに特化しています。
気候モデル
Safetensors
M
Salesforce
374.41k
9
Whisper Base Hungarian V1
OpenAI Whisper-baseモデルをファインチューニングしたハンガリー語音声認識モデルで、1200時間のハンガリー語データで訓練され、同類のモデルよりも優れた性能を発揮します
音声認識
Transformers その他

W
sarpba
26
7
Gemma 7b Aps It
Gemma-APSは抽象命題分割(APS)のための生成モデルで、テキスト段落を独立した事実、主張、意見に分解できます。
大規模言語モデル
Transformers

G
google
161
33
Autogluon Chronos T5 Large
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習時系列予測モデルファミリーで、量子化とスケーリングにより時系列をトークン系列に変換して学習します。
気候モデル
A
anchovy
25
0
Test Patchtsmixer
Apache-2.0
PatchTSMixerはIBM Graniteプロジェクトの時系列予測基盤モデルで、革新的なPatchハイブリッドアーキテクチャを採用し、様々な時系列予測タスクに適用可能です。
気候モデル
T
ibm-research
5,300
0
Test Patchtst
Apache-2.0
PatchTSTは時系列予測タスクに特化した事前学習済みの時系列基盤モデルです。
気候モデル
T
ibm-research
5,593
0
Minicheck Flan T5 Large
MIT
MiniCheck-Flan-T5-LargeはFlan-T5-Largeアーキテクチャに基づくファクトチェックモデルで、ドキュメントが与えられた主張をサポートするかどうかを予測します。
テキスト分類
Transformers 英語

M
lytang
1,410
12
Tweety 7b Dutch V24a
Apache-2.0
Tweety-7b-dutchはオランダ語に特化したベース大規模言語モデルで、mistralアーキテクチャを基に、オランダ語トークナイザーを使用してオランダ語テキスト処理能力を最適化しています。
大規模言語モデル
Transformers その他

T
Tweeties
1,568
13
Clf Sentimentos Cmts
MIT
ブラジルポルトガル語のソーシャルメディアテキスト向け感情分類モデル、絵文字処理をサポート
テキスト分類
Transformers

C
tbluhm
113
1
Kobart Korean Summarizer V2
gogamza/kobart-base-v2をベースに訓練された韓国語テキスト要約モデルで、AI Hubの68万件の要約データを使用して訓練
テキスト生成
Transformers

K
gangyeolkim
164
0
Tapex Large Finetuned Qtsumm
MIT
BARTアーキテクチャに基づく表要約生成モデルで、クエリ焦点型の表要約タスクに最適化されています。
テキスト生成
Transformers 英語

T
yale-nlp
18
0
Dfm Sentence Encoder Large
MIT
これはSimCSE手法を用いてトレーニングされたデンマーク語テキスト埋め込みモデルで、スカンジナビア埋め込みベンチマークの一部として開発されました
テキスト埋め込み
Transformers その他

D
KennethEnevoldsen
66
2
Polite Bert
Apache-2.0
Polite BertはBERTを微調整したモデルで、英語の文の礼儀正しさを、無礼、中立、やや礼儀正しい、礼儀正しいの4段階で分類します。
テキスト分類
Transformers 英語

P
NOVA-vision-language
100
3
Japanese Gpt Neox 3.6b
MIT
36億パラメータを持つ日本語GPT-NeoXモデルで、Transformerアーキテクチャに基づき、3.125兆トークンの日本語コーパスで学習されています。
大規模言語モデル
Transformers 複数言語対応

J
rinna
34.74k
99
Hgn Trans En2zh
Apache-2.0
これはHelsinki-NLP/opus-mt-en-zh事前学習モデルを基にファインチューニングした英中翻訳モデルで、清華大学開放中国語語彙(THUOCL)データセットを使用してファインチューニングされています。
機械翻訳
Transformers 複数言語対応

H
BubbleSheep
1,069
3
Tibetan Roberta Causal Base
MIT
これはRoBERTaアーキテクチャに基づくチベット語事前訓練因果言語モデルで、主にチベット語テキスト生成タスクに使用されます。
大規模言語モデル
Transformers その他

T
sangjeedondrub
156
5
Opus Mt Bzs En
Apache-2.0
Transformerアーキテクチャに基づく機械翻訳モデルで、bzs言語を英語に翻訳するために使用されます。
機械翻訳
Transformers 複数言語対応

O
Helsinki-NLP
13
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98