Llama 3.1 1million Ctx Dark Planet V1.01 8B
複数の高品質8Bモデルを統合最適化したLlama-3.1アーキテクチャの大規模言語モデル、超長文処理をサポート
大規模言語モデル
Transformers

L
DavidAU
93
2
Japanese Parler Tts Mini
その他
Parler-TTS Mini v1は軽量なテキスト音声合成モデル、Retrieva-JP T5 Base Longは日本語テキスト処理モデルで、両者を組み合わせて日本語テキスト音声合成タスクに使用されます。
音声合成
Transformers 日本語

J
2121-8
1,250
16
Magnum V2 123b
その他
これはMistral-Large-Instruct-2407をベースに微調整されたモデルで、Claude 3シリーズのモデル(特にSonnetとOpus)の散文の質を再現することを目的としています。
大規模言語モデル
Transformers 複数言語対応

M
anthracite-org
284
58
Gliner Small News V2.1
Apache-2.0
GLiNERをベースにしたファインチューニング版で、ニュース分野のエンティティ認識に最適化されており、18のベンチマークテストでゼロショット精度が最大7.5%向上
シーケンスラベリング 英語
G
EmergentMethods
34
9
Gliner Large News V2.1
Apache-2.0
GLiNERをファインチューニングしたニュースドメインのエンティティ認識モデルで、長文ニュースのエンティティ抽出に優れ、18のベンチマークデータセットでゼロショット精度が最大7.5%向上しました。
シーケンスラベリング 英語
G
EmergentMethods
2,558
18
Gliner Medium News V2.1
Apache-2.0
GLiNERをベースにしたファインチューニング版で、ニュースエンティティ抽出に最適化されており、18のベンチマークテストでゼロショット精度が最大7.5%向上
シーケンスラベリング 英語
G
EmergentMethods
532.81k
75
Vietnamese Correction V2
Apache-2.0
ベトナム語テキストの自動校正用Transformerモデルで、スペルや文法の誤りを識別・修正できます。
機械翻訳
Transformers その他

V
bmd1905
2,052
7
Whisper Large V3 French Distil Dec16
MIT
Whisper-Large-V3-フランス語蒸留版は、デコーダ層数を32層から16層に削減し、大規模データセットで蒸留訓練を行ったフランス語音声認識モデルです。このモデルは性能を維持しながら、メモリ消費量と推論時間を大幅に削減しました。
音声認識
Transformers フランス語

W
bofenghuang
2,461
10
Whisper Large V3 French
MIT
OpenAI Whisper-large-v3をファインチューニングしたフランス語自動音声認識モデルで、大文字小文字、句読点、数字の予測をサポート
音声認識
Transformers フランス語

W
bofenghuang
771
28
Persian To English Translation Mt5 V1
MIT
mT5ベースのペルシア語から英語への機械翻訳モデル
機械翻訳
Transformers その他

P
SeyedAli
88
6
Text2vec Bge Large Chinese
Apache-2.0
CoSENTアルゴリズムに基づく中国語意味マッチングモデルで、文を1024次元の密ベクトル空間にマッピングでき、文埋め込み、テキストマッチング、意味検索などのタスクに適しています。
テキスト埋め込み
Transformers 中国語

T
shibing624
1,791
40
Legal Xlm Roberta Base
CC
法律データで事前学習された多言語XLM-RoBERTaモデル、24の欧州言語の法律文書処理をサポート
大規模言語モデル
Transformers 複数言語対応

L
joelniklaus
387
3
Jobbert Base Cased
JobBERTはBERTベースの採用分野向け事前学習モデルで、求人情報からハードスキルとソフトスキルを抽出するために特別に設計されています。
シーケンスラベリング
Transformers 英語

J
jjzha
890
18
Trans Opus Mt En Zh
これはTransformerアーキテクチャに基づく英語から中国語への機械翻訳モデルで、複数の中国語方言をサポートしています。
機械翻訳
Transformers 複数言語対応

T
liam168
255
29
Alephbert Base
Apache-2.0
AlephBERTは、ヘブライ語に特化した最先端の言語モデルで、GoogleのBERTアーキテクチャを基に、ヘブライ語テキスト処理のために設計されています。
大規模言語モデル
Transformers その他

A
biu-nlp
26
0
Sentence Bert Swedish Cased
Apache-2.0
これはKB - BERTに基づくスウェーデン語の文埋め込みモデルで、スウェーデン語の文や段落を768次元のベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクをサポートします。
テキスト埋め込み
Transformers その他

S
KBLab
16.37k
28
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98